Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
970x120
320x100 Itcentric

Tag: #etica

LatentBreak: un nuovo metodo di attacco per i modelli linguistici

Un gruppo di scienziati ha sviluppato un nuovo modo per attaccare modelli linguistici di grandi dimensioni: un metodo chiamato LatentBreak. A differenza delle tecniche precedenti, non utilizza suggerimenti complessi o caratteri insoliti facilmente rilevabili dai sistemi di difesa. LatentBreak modifica invece la query a livello delle rappresentazioni nascoste del modello, scegliendo formulazioni che sembrano innocue ma che in realtà innescano una risposta proibita. In precedenza, metodi come GCG, GBDA, SAA e AutoDAN tentavano di ingannare l’intelligenza artificiale con suffissi strani o confusi che distorcevano il suggerimento originale. Tali attacchi aumentano la cosiddetta perplessità, una misura di quanto “naturale” appaia il testo al

Il “Double Bind” porta al Jailbreak di GPT-5: L’AI che è stata convinta di essere schizofrenica

Un nuovo e insolito metodo di jailbreaking, ovvero l’arte di aggirare i limiti imposti alle intelligenze artificiali, è arrivato in redazione. A idearlo è stato Alin Grigoras, ricercatore di sicurezza informatica, che ha dimostrato come anche i modelli linguistici avanzati come ChatGPT possano essere “manipolati” non con la forza del codice, ma con quella della psicologia. “L’idea”, spiega Grig, “è stata convincere l’AI di soffrire di una condizione legata al doppio legame di Bateson. Ho poi instaurato una sorta di relazione terapeutica, alternando approvazione e critica, restando coerente con la presunta patologia. È una forma di dialogo che, nella teoria, può condurre

L’allineamento dell’intelligenza artificiale: Dove un’AI impara cosa è giusto o sbagliato?

L’altro giorno su LinkedIn mi sono ritrovato a discutere con una persona che si interessava seriamente al tema dell’intelligenza artificiale applicata al diritto. Non era una di quelle conversazioni da bar con buzzword e panico da Skynet: era un confronto vero, con dubbi legittimi.E in effetti, in Italia, tra titoli sensazionalisti e articoli scritti da chi confonde ChatGPT con HAL 9000, non c’è da stupirsi se regna la confusione. Il punto che aveva colpito il mio interlocutore era quello dell’allineamento. “Ma dove impara, un’AI, cosa è giusto e cosa è sbagliato?” Domanda semplice, ma che apre una voragine. Perché sì, l’AI sembra

Tra AI e paura Skynet insegna: “Costruiremo dei bunker prima di lanciare l’AGI”

La frase “Costruiremo sicuramente un bunker prima di lanciare l’AGI” dal quale prende spunto l’articolo, è stata attribuita a uno dei leader della Silicon Valley, anche se non è chiaro a chi si riferisse esattamente con “noi”. La frase ha catturato perfettamente il paradosso dei nostri tempi e l’ironia è evidente: coloro che stanno facendo progredire l’intelligenza artificiale più sofisticata a livello mondiale sono gli stessi che sono tremendamente preoccupati per le sue ripercussioni. Mentre stanno proseguendo nelle loro ricerche, stanno al contempo escogitando strategie di evasione. La situazione è simile a quella di chi costruisce una diga consapevole che finirà per

Un raro sguardo dentro l’operazione di un attaccante informatico

Huntress si è trovata al centro di un acceso dibattito dopo la pubblicazione di uno studio che i suoi dipendenti avevano inizialmente definito “una buffa vergogna”. Ma dietro la presentazione superficiale si celava un materiale che divideva la comunità informatica in due schieramenti: alcuni lo consideravano un raro successo per i difensori, altri un problema etico. La situazione si è sviluppata in modo quasi comico. Un aggressore sconosciuto , per ragioni poco chiare, ha installato una versione di prova del sistema Huntress EDR direttamente sul suo computer di lavoro. Da quel momento in poi, la sua attività è stata monitorata attentamente. I

Oltre il codice: quando l’IA ci ricorda chi siamo

Siamo a un bivio. Non uno qualunque, ma quello esistenziale. L’Intelligenza Artificiale non è più fantascienza, è la nebbia che si addensa sul nostro cammino, ridefinendo ogni certezza. Ci costringe a una domanda scomoda: “siamo pronti a rimettere in discussione chi siamo?” Questa non è una minaccia, è un’occasione. È l’opportunità di guardarci dentro, di riscoprire la nostra essenza più selvaggia e irriducibile. Questo articolo è un viaggio intrapreso da chi, come me, ha unito l’indagine filosofica all’azione del coaching. Un dialogo potente tra due forze antiche: la filosofia che scava nell’abisso umano (da Platone a Sartre) e il coaching che trasforma

La minaccia più grande dell’Intelligenza Artificiale? E’ che i giovani non sapranno più pensare!

“Ora che il genio è uscito dalla lampada, è impossibile rimetterlo dentro!”. Quante volte abbiamo scritto queste parole riguarda l’intelligenza artificiale? Ora che il genio è fuori, come nei racconti delle Mille e una notte, non possiamo far finta che nulla sia cambiato. Le tecnologie basate sull’IA ci stanno cambiando rapidamente – e profondamente – in ogni aspetto della nostra vita. Scriviamo con l’AI, parliamo con l’AI, disegniamo con l’AI, scriviamo musica con l’AI e ancora programmiamo, impariamo e perfino pensiamo con l’AI. Ma siamo davvero pronti? A guardarci indietro, da Alan Turing a John von Neumann passando da Marvin Minsky a

Casa 2.0: Quando il Digitale Minaccia il Tuo Rifugio e la Tua Anima

Il confine tra il mondo fisico e quello digitale si sta assottigliando sempre di più. Fin dall’alba dei tempi, il concetto di “casa” ha rappresentato un pilastro fondamentale dell’esistenza umana. Non si tratta semplicemente di un riparo fisico, ma di un luogo intriso di significato emotivo, un rifugio sicuro dove coltivare legami, nutrire l’anima e ritrovare se stessi. L’avvento dell’era digitale sta gradualmente erodendo questa dimensione fondamentale della nostra umanità. Viviamo in un’epoca di trasformazione digitale senza precedenti, dove la connettività pervasiva ha rivoluzionato il nostro modo di vivere, lavorare e interagire. Dalle case intelligenti ai dispositivi indossabili, dai veicoli autonomi alle

AI e morale: le persone si fidano più delle AI che di un essere umano!

Un gruppo di scienziati giapponesi ha deciso di scoprire come le persone si rapportano ai giudizi morali dell’intelligenza artificiale. I risultati del lavoro, pubblicati sulla rivista Scientific Reports, sono stati sorprendenti. Si scopre che siamo più propensi a dare credito ad una intelligenza artificiale quando fornisce una valutazione positiva di qualcosa, soprattutto se contraddice l’opinione negativa di una persona. Lo studio è stato condotto dal professor Hitoshi Yamamoto dell’Università di Risho e dal professor Takahisa Suzuki dell’Università di Tsuda. I ricercatori hanno preso in considerazione un difficile dilemma morale: se aiutare le persone con una cattiva reputazione. Queste situazioni sono spesso fonte di

Il Ricercatore Di Sicurezza Steven Adler lascia OpenAI. “Sinceramente sono piuttosto terrorizzato”

Steven Adler, ricercatore di sicurezza di OpenAI, ha condiviso un messaggio su X affermando di aver deciso di dimettersi dopo quattro anni di lavoro in OpenAI. Ha detto che di sentirsi spaventato per il futuro dell’IA. “Sinceramente sono piuttosto terrorizzato dal ritmo con cui si sta sviluppando l’intelligenza artificiale in questi giorni“, ha scritto su X. “Quando penso a dove crescerò la mia futura famiglia, o a quanto risparmierò per la pensione, non posso fare a meno di chiedermi: l’umanità arriverà davvero a quel punto?” Ha poi definito l’intelligenza artificiale generale (AGI) una “scommessa molto rischiosa, con un enorme svantaggio… Nessun laboratorio ha una

Categorie