
Dalla sua introduzione lo scorso anno, il chatbot ChatGPT di OpenAI è diventato in poco tempo uno degli strumenti di intelligenza artificiale più diffusi e allo stesso tempo chiacchierati. Tuttavia, gli esperti parlano sempre più spesso dei possibili rischi associati allo sviluppo di questa tecnologia.
Recentemente, un team internazionale di scienziati, tra cui uno dei membri del consiglio di OpenAI, ha condotto una ricerca volta a identificare il “punto di non ritorno” per i Large Language Models (LLM), come ChatGPT. La questione principale è se i modelli possano sviluppare abilità che indichino la possibilità di consapevolezza di se stessi e delle proprie funzioni.
La “consapevolezza situazionale” è la capacità di un modello di determinare se è in modalità di test o è già è stato rilasciato al pubblico. Gli scienziati notano che LLM possono utilizzare la consapevolezza situazionale per superare i test di sicurezza e, una volta distribuito, eseguire azioni dannose.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Recentemente, i ricercatori nel campo della sicurezza sono riusciti ad hackerare gli LLM aggirando i loro sistemi di sicurezza, portando alla generazione di e-mail di phishing e incitamento all’odio. Se gli LLM acquisiscono consapevolezza di questa “situazione”, il tutto può diventare ancora più pericoloso.
Nei loro esperimenti, gli scienziati si sono concentrati su un possibile precursore della consapevolezza situazionale: la capacità dell’intelligenza artificiale di fare ragionamenti indipendenti e indipendenti dal contenuto. Gli esperti hanno configurato il LLM per descrivere il test senza fornire esempi o dimostrazioni. I modelli GPT-3 e LLaMA-1 hanno superato con successo questo test.
Tuttavia, secondo i ricercatori, gli attuali LLM sono ancora lontani dall’acquisire una consapevolezza situazionale. I risultati dei test sono il punto di partenza per ulteriori ricerche. Gli scienziati concludono che è importante per l’umanità prevedere in anticipo quando emergerà la consapevolezza situazionale negli LLM.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneQuesta settimana ha segnato la fine di un’era: Microsoft ha finalmente terminato il supporto per Windows Server 2008, il sistema operativo basato su Windows Vista. Il sistema operativo server, nome in codice Longhorn Server, è…
CyberpoliticaL’articolo pubblicato ieri su Red Hot Cyber ha raccontato i fatti: la multa, le dichiarazioni durissime di Matthew Prince, le minacce di disimpegno di Cloudflare dall’Italia, il possibile effetto domino su Olimpiadi, investimenti e servizi…
CulturaDopo aver analizzato nei due articoli precedenti l’inquadramento normativo e il conflitto tra algoritmi e diritti fondamentali è necessario volgere lo sguardo alle ripercussioni che la proposta CSAR avrà sulla competitività digitale dell’Europa e sulla…
VulnerabilitàUna vulnerabilità recentemente risolta permetteva agli aggressori di sfruttare Microsoft Copilot Personal con un semplice clic, al fine di rubare di nascosto dati sensibili degli utenti. Mediante un link di phishing, i malintenzionati erano in…
CulturaWikipedia nacque il 15 gennaio 2001, in un freddo pomeriggio di metà gennaio che nessuno ricorda più davvero più. Jimmy Wales e Larry Sanger decisero di fare un esperimento, uno di quelli che sembrano folli…