
Nel settore dell’intelligenza artificiale è stata lanciata una nuova, audace iniziativa volta a indebolire i modelli di apprendimento automatico distorcendo deliberatamente i dati utilizzati per addestrarli. Il progetto, denominato Poison Fountain, è stato ideato da persone direttamente coinvolte nello sviluppo dell’intelligenza artificiale e mira a evidenziare la vulnerabilità di questi sistemi e a richiamare l’attenzione sulle potenziali minacce.
Gli autori del progetto propongono che i proprietari di siti web inseriscano nei loro siti web link che conducano a pagine create appositamente contenenti informazioni errate o dannose, che vengono raccolte automaticamente dai robot di ricerca basati sull’intelligenza artificiale.
Questi dati finiscono poi nei set di addestramento , degradando l’accuratezza e la qualità dei modelli risultanti. Queste pagine sono destinate a contenere codice di programma errato, contenente errori logici difficili da rilevare che potrebbero danneggiare i modelli linguistici addestrati su tali contenuti.
L’idea si basa in larga parte sulla ricerca condotta da Anthropic lo scorso ottobre. All’epoca, i ricercatori avevano concluso che anche un numero minimo di documenti dannosi può avere un impatto significativo sul comportamento dei modelli linguistici. Questa scoperta, secondo i promotori di Poison Fountain, ha confermato quanto sia facile sovvertire i moderni sistemi di intelligenza artificiale.
Secondo The Register, cinque persone sono coinvolte nel progetto, alcune delle quali lavorano per importanti aziende americane di intelligenza artificiale. Uno degli organizzatori, che ha preferito rimanere anonimo, ha osservato che la minaccia non risiede in scenari ipotetici, ma piuttosto in tecnologie basate sull’intelligenza artificiale già implementate. Questa, ha affermato, è stata la motivazione per il lancio del progetto: dimostrare quanto facilmente la fiducia in tali sistemi possa essere minata.
Il sito web di Poison Fountain contiene due link: uno a un sito web tradizionale, l’altro accessibile solo tramite la rete anonima Tor. I visitatori sono incoraggiati a salvare e distribuire dati dannosi, nonché a facilitare l’inclusione di queste informazioni nei set di dati di addestramento dell’IA. Gli autori non credono nell’efficacia della regolamentazione, ritenendo che le tecnologie siano già troppo diffuse e che pertanto una risposta efficace debba essere proattiva e distruttiva.
Lo scetticismo nei confronti della regolamentazione è alimentato dal fatto che le più grandi aziende di intelligenza artificiale investono attivamente in attività di lobbying, cercando di ridurre al minimo l’interferenza governativa. Pertanto, i partecipanti a Poison Fountain ritengono che l’unico modo possibile per fermare lo sviluppo dell’intelligenza artificiale sia il sabotaggio.
Secondo i sostenitori di questa idea, una campagna di distorsione dei dati su larga scala potrebbe accelerare il collasso dell’intero settore, che si ritiene già stia attraversando alcune difficoltà. La comunità discute da tempo sui segnali del cosiddetto “collasso del modello”, un processo in cui l’IA inizia ad apprendere da dati sintetici o già elaborati dai propri algoritmi, perdendo la capacità di riprodurre accuratamente le informazioni. In un ambiente informativo rapidamente “inquinato”, tali modelli diventano sempre più inaffidabili.
Questi sforzi riecheggiano in parte altre iniziative volte a proteggere dall’uso non autorizzato di contenuti. Ad esempio, il progetto di lunga data Nightshade consente agli artisti di contrastare la raccolta automatica di immagini dai loro siti web introducendo sottili distorsioni che impediscono agli algoritmi di riconoscerle correttamente.
Quanto possa essere efficace l’avvelenamento deliberato dei dati di training rimane una questione aperta. Tuttavia, l’esistenza stessa di tali progetti riflette la crescente preoccupazione della comunità IT per l’ulteriore sviluppo dell’intelligenza artificiale e le conseguenze del suo utilizzo incontrollato.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber ItaliaPoco fa, l’Università La Sapienza intorno alle 12:28 ha confermato di essere stata vittima di un attacco informatico che ha costretto al blocco temporaneo di tutti i sistemi digitali dell’ateneo. A darne informazione è il…
CybercrimeSe vi state chiedendo quanto sia grande 31,4 terabit al secondo, la risposta pratica è: abbastanza da far sembrare “un problema di rete” quello che in realtà è un problema di ecosistema. Perché il punto…
Cyber ItaliaLa mattina di lunedì 2 febbraio si è aperta con una notizia inattesa per studenti, docenti e personale della Sapienza Università di Roma. I principali servizi digitali dell’ateneo sono risultati improvvisamente irraggiungibili, generando incertezza e…
Cyber NewsBETTI RHC è un progetto editoriale e culturale ideato da Red Hot Cyber, realtà italiana punto di riferimento nel panorama della cybersecurity e della divulgazione tecnologica. Non si tratta di un semplice fumetto, ma di…
Cyber NewsMentre il cloud è diventato il cuore dell’economia digitale, l’Unione europea si trova davanti a una scelta storica: trasformare la certificazione cloud in uno strumento di sovranità o limitarsi ad un semplice controllo tecnico. Il…