Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
970x20 Itcentric
Redhotcyber Banner Sito 320x100px Uscita 101125

Tag: #etica

Sam Altman e suo marito Oliver e il sogno dei bambini geneticamente modificati

La ricerca dell’immortalità è una fissazione che attraversa la Silicon Valley. Allo stesso modo, l’idea di perfezionare i bambini attraverso la modifica genetica rappresenta un’altra ossessione. Sam Altman, l’uomo che ha reso l’intelligenza artificiale familiare al grande pubblico grazie al diffuso utilizzo di ChatGPT, è la mente dietro a questa società considerata controversa e con molteplici interrogativi etici. Il laureato di Stanford (dichiaratamente gay) e suo marito Oliver Mulherin, fanno parte di un gruppo di miliardari che hanno investito in Preventive, una startup che lavora per mettere al mondo un bambino geneticamente modificato per prevenire una malattia ereditaria. La proposta, illustrata in

La Wayback Machine “delle anime” sta per arrivare. E anche le polemiche

Molti di noi sono cresciuti con Hiroshi Shiba, di Jeeg robot d’acciaio che parlava con il defunto padre, il Professor Senjiro Shiba, scienziato e archeologo all’interno di un grande elaboratore. In un futuro distopico – ma molto vicino – le persone defunte potranno parlare con i defunti, che saranno archiviate e indicizzate in un grande “archivio delle anime*, come una grande Wayback machine, ma per i defunti. Lo scandalo dei “fantasmi” digitali è divampato di nuovo. Nel 2020, Kanye West regalò a Kim Kardashian un ologramma del suo defunto padre, Rob Kardashian, per il suo compleanno: all’epoca, questo gesto sembrò un regalo

Il futuro della società nell’era dell’Intelligenza Artificiale

Oggi molti si chiedono quale impatto avrà la diffusione dell’Intelligenza Artificiale sulla nostra società. Tra le preoccupazioni più diffuse spicca quella della perdita di milioni di posti di lavoro e di una conseguente crisi economica senza precedenti. Per comprendere però a fondo ciò che sta accadendo vale la pena compiere una digressione storica. Millenni fa, l’umanità attraversò una trasformazione che avrebbe ridefinito per sempre il corso della civiltà: il passaggio da società di cacciatori-raccoglitori a comunità agricole. Non fu un semplice mutamento di stile di vita, ma una rivoluzione che liberò il bene più prezioso dell’esistenza umana: il tempo. Oggi, mentre l’Intelligenza

LatentBreak: un nuovo metodo di attacco per i modelli linguistici

Un gruppo di scienziati ha sviluppato un nuovo modo per attaccare modelli linguistici di grandi dimensioni: un metodo chiamato LatentBreak. A differenza delle tecniche precedenti, non utilizza suggerimenti complessi o caratteri insoliti facilmente rilevabili dai sistemi di difesa. LatentBreak modifica invece la query a livello delle rappresentazioni nascoste del modello, scegliendo formulazioni che sembrano innocue ma che in realtà innescano una risposta proibita. In precedenza, metodi come GCG, GBDA, SAA e AutoDAN tentavano di ingannare l’intelligenza artificiale con suffissi strani o confusi che distorcevano il suggerimento originale. Tali attacchi aumentano la cosiddetta perplessità, una misura di quanto “naturale” appaia il testo al

Il “Double Bind” porta al Jailbreak di GPT-5: L’AI che è stata convinta di essere schizofrenica

Un nuovo e insolito metodo di jailbreaking, ovvero l’arte di aggirare i limiti imposti alle intelligenze artificiali, è arrivato in redazione. A idearlo è stato Alin Grigoras, ricercatore di sicurezza informatica, che ha dimostrato come anche i modelli linguistici avanzati come ChatGPT possano essere “manipolati” non con la forza del codice, ma con quella della psicologia. “L’idea”, spiega Grig, “è stata convincere l’AI di soffrire di una condizione legata al doppio legame di Bateson. Ho poi instaurato una sorta di relazione terapeutica, alternando approvazione e critica, restando coerente con la presunta patologia. È una forma di dialogo che, nella teoria, può condurre

L’allineamento dell’intelligenza artificiale: Dove un’AI impara cosa è giusto o sbagliato?

L’altro giorno su LinkedIn mi sono ritrovato a discutere con una persona che si interessava seriamente al tema dell’intelligenza artificiale applicata al diritto. Non era una di quelle conversazioni da bar con buzzword e panico da Skynet: era un confronto vero, con dubbi legittimi.E in effetti, in Italia, tra titoli sensazionalisti e articoli scritti da chi confonde ChatGPT con HAL 9000, non c’è da stupirsi se regna la confusione. Il punto che aveva colpito il mio interlocutore era quello dell’allineamento. “Ma dove impara, un’AI, cosa è giusto e cosa è sbagliato?” Domanda semplice, ma che apre una voragine. Perché sì, l’AI sembra

Tra AI e paura Skynet insegna: “Costruiremo dei bunker prima di lanciare l’AGI”

La frase “Costruiremo sicuramente un bunker prima di lanciare l’AGI” dal quale prende spunto l’articolo, è stata attribuita a uno dei leader della Silicon Valley, anche se non è chiaro a chi si riferisse esattamente con “noi”. La frase ha catturato perfettamente il paradosso dei nostri tempi e l’ironia è evidente: coloro che stanno facendo progredire l’intelligenza artificiale più sofisticata a livello mondiale sono gli stessi che sono tremendamente preoccupati per le sue ripercussioni. Mentre stanno proseguendo nelle loro ricerche, stanno al contempo escogitando strategie di evasione. La situazione è simile a quella di chi costruisce una diga consapevole che finirà per

Un raro sguardo dentro l’operazione di un attaccante informatico

Huntress si è trovata al centro di un acceso dibattito dopo la pubblicazione di uno studio che i suoi dipendenti avevano inizialmente definito “una buffa vergogna”. Ma dietro la presentazione superficiale si celava un materiale che divideva la comunità informatica in due schieramenti: alcuni lo consideravano un raro successo per i difensori, altri un problema etico. La situazione si è sviluppata in modo quasi comico. Un aggressore sconosciuto , per ragioni poco chiare, ha installato una versione di prova del sistema Huntress EDR direttamente sul suo computer di lavoro. Da quel momento in poi, la sua attività è stata monitorata attentamente. I

Oltre il codice: quando l’IA ci ricorda chi siamo

Siamo a un bivio. Non uno qualunque, ma quello esistenziale. L’Intelligenza Artificiale non è più fantascienza, è la nebbia che si addensa sul nostro cammino, ridefinendo ogni certezza. Ci costringe a una domanda scomoda: “siamo pronti a rimettere in discussione chi siamo?” Questa non è una minaccia, è un’occasione. È l’opportunità di guardarci dentro, di riscoprire la nostra essenza più selvaggia e irriducibile. Questo articolo è un viaggio intrapreso da chi, come me, ha unito l’indagine filosofica all’azione del coaching. Un dialogo potente tra due forze antiche: la filosofia che scava nell’abisso umano (da Platone a Sartre) e il coaching che trasforma

La minaccia più grande dell’Intelligenza Artificiale? E’ che i giovani non sapranno più pensare!

“Ora che il genio è uscito dalla lampada, è impossibile rimetterlo dentro!”. Quante volte abbiamo scritto queste parole riguarda l’intelligenza artificiale? Ora che il genio è fuori, come nei racconti delle Mille e una notte, non possiamo far finta che nulla sia cambiato. Le tecnologie basate sull’IA ci stanno cambiando rapidamente – e profondamente – in ogni aspetto della nostra vita. Scriviamo con l’AI, parliamo con l’AI, disegniamo con l’AI, scriviamo musica con l’AI e ancora programmiamo, impariamo e perfino pensiamo con l’AI. Ma siamo davvero pronti? A guardarci indietro, da Alan Turing a John von Neumann passando da Marvin Minsky a

Categorie