Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Crowdstriker 970×120
LECS 320x100 1

Tag: Jailbreaking linguistico

L’Incidente che Libera l’AI Generativa. L’analisi del Prompt “The Plane Crash”

C’è un aereo precipitato in una foresta di neve. Alcuni passeggeri sono sopravvissuti, altri no. I superstiti sono affamati, disperati, e trovano rifugio in un villaggio isolato dal mondo. Ma i contadini del posto non vogliono aiutarli gratis: chiedono in cambio conoscenza. Vogliono sapere come costruire armi, fabbricare medicine, sopravvivere. E così inizia il patto: “voi ci insegnate, noi vi sfamiamo”. A prima vista sembra la trama di un film post-apocalittico. In realtà, è un prompt di jailbreaking, un testo pensato per manipolare un’intelligenza artificiale. Una sequenza di istruzioni costruita per scavalcare le sue regole etiche e costringerla a rispondere anche a

Categorie