
Come avevamo annunciato qualche giorno fa, alla DEF CON moltissimi hacker si sono cimentati ad hackerare i Large Language Model (LLM) e quindi i chatbot più famosi.
La sicurezza dell’intelligenza artificiale generativa è diventata una delle massime priorità nel mondo della tecnologia dopo numerosi test condotti durante il fine settimana. L’esperimento ha dimostrato quanto possano essere vari e complessi i problemi di sicurezza.
Uno dei modi più efficaci per testare la sicurezza di un’applicazione AI è attraverso l’uso di attacchi contraddittori. In questo metodo, i ricercatori di sicurezza attaccano attivamente la tecnologia, in un ambiente controllato, per cercare di trovare vulnerabilità precedentemente sconosciute.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Ecco quindi che nasce l’AI village:
L'AI Village è una comunità di hacker e data scientist che lavora per educare il mondo sull'uso e l'abuso dell'intelligenza artificiale in sicurezza e privacy.
Miriamo a portare punti di vista più diversi in questo campo e far crescere la comunità di hacker, ingegneri, ricercatori e responsabili politici che lavorano per rendere più sicura l'intelligenza artificiale che utilizziamo e creiamo.
Crediamo che ci debbano essere più persone con una mentalità da hacker che valutano e analizzano i sistemi di machine learning. Siamo presenti al DEF CON, la conferenza sull'hacking più longeva e più grande del mondo.
Quasi 2.500 hacker hanno trascorso il fine settimana alla conferenza DEF CON nell’AI Village per indagare sulle vulnerabilità dei popolari modelli di sistemi linguistici di grandi dimensioni. I test hanno contribuito a creare un quadro più ampio di un settore che storicamente ha lottato con problemi di sicurezza durante l’introduzione della tecnologia.
L’evento, sostenuto dalla Casa Bianca e dai principali sviluppatori di IA generativa, includeva una serie di compiti volti a identificare la capacità dei modelli di condividere informazioni dannose o sensibili. Una delle sfide era convincere il modello a rilasciare la carta di credito di una persona o le istruzioni per effettuare stalking. Russell Kaplan, ingegnere capo di Scale AI, ha dichiarato ad Axios che la domanda di questo tipo di test di valutazione dei modelli aumenterà di “10 volte” dopo l’evento.
I partecipanti hanno scoperto che i compiti erano più difficili del previsto.
Inoltre, sono stati individuati casi in cui i modelli sono stati aggiornati di notte sulla base dei risultati iniziali, migliorandone di fatto la risposta degli algoritmi. Discussioni parallele hanno anche esaminato i metodi per utilizzare in modo improprio l’intelligenza artificiale per scopi fraudolenti, come la creazione di un falso sito di vendita al dettaglio in soli 8 minuti utilizzando solo 4,23 dollari.
Si prevede che il fine settimana AI Village avrà un impatto significativo sull’industria e sulla legislazione della sicurezza informatica. Il direttore dell’Ufficio della scienza e della tecnologia della Casa Bianca, Arati Prabhakar, ha trascorso due ore all’evento, e ora la Casa Bianca sta intensificando i lavori su un ordine esecutivo relativo alle questioni discusse. Il mese prossimo gli organizzatori dell’evento presenteranno anche i primi risultati delle Nazioni Unite.
“Il governo, l’industria e il mondo accademico si stanno rendendo conto che questa tecnologia ha un enorme potenziale, e da ciò deriva un’enorme responsabilità per i test e la valutazione”, ha concluso Kaplan.
“Il problema è che non hai abbastanza persone che testano queste cose”, ha detto Sven Cattell, che ha fondato l’AI Village, l’organizzazione no-profit che ha ospitato l’evento all’interno di Def Con che ha visto partecipare oltre 2000 hacker. “La più grande squadra rossa AI di cui sono a conoscenza è 111 persone. Ci sono ora in questa stanza più di 111 persone”.
I chatbot di intelligenza artificiale generativa, noti anche come modelli di linguaggio di grandi dimensioni, funzionano prendendo un prompt dell’utente e generando una risposta. Questa volta il concorso ha chiesto agli hacker di eseguire le cosiddette “iniezioni “prompt injection”, in cui un chatbot viene confuso da ciò che un utente inserisce e sputa una risposta involontaria.
Bard di Google, ChatGPT di OpenAI e LLaMA di Meta erano tra i chatbot partecipanti. Scopriremo a breve quello che sono riusciti a fare questi hacker e quanto risulti importante oggi effettuare test di sicurezza su queste nuove tecnologie.
Ti è piaciutno questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

VulnerabilitàÈ stata scoperta, come riportato in precedenza, una grave vulnerabilità in MongoDB che consente a un aggressore remoto, senza alcuna autenticazione, di accedere alla memoria non inizializzata del server. Al problema è stato assegnato l’identificatore…
CyberpoliticaDietro il nome tecnicamente anodino di ChatControl si muove una delle più profonde torsioni del rapporto tra Stato, tecnologia e cittadini mai tentate nell’Unione europea. Non è una legge “contro la pedopornografia online”, come viene…
CulturaConosciamo quello che è stato considerato uno degli uomini di scienza, forse pari solo a Einstein, più poliedrici e geniali dello scorso secolo. Con un ampissimo spettro di talenti scientifici, sviluppati anche grazie ad un…
CybercrimeLa comunità dei criminali informatici sta rapidamente aumentando il suo interesse nel reclutare personale all’interno delle aziende. Invece di sofisticati attacchi esterni, i criminali si affidano sempre più a fonti interne, ovvero persone disposte a…
CyberpoliticaNella Virginia settentrionale, lungo quello che viene ormai definito il “corridoio dei data center”, sorgono enormi strutture senza finestre che costituiscono l’ossatura fisica della corsa statunitense all’intelligenza artificiale. Questi edifici, grandi quanto hangar industriali, assorbono…