
Redazione RHC : 11 Settembre 2023 08:48
Dalla sua introduzione lo scorso anno, il chatbot ChatGPT di OpenAI è diventato in poco tempo uno degli strumenti di intelligenza artificiale più diffusi e allo stesso tempo chiacchierati. Tuttavia, gli esperti parlano sempre più spesso dei possibili rischi associati allo sviluppo di questa tecnologia.
Recentemente, un team internazionale di scienziati, tra cui uno dei membri del consiglio di OpenAI, ha condotto una ricerca volta a identificare il “punto di non ritorno” per i Large Language Models (LLM), come ChatGPT. La questione principale è se i modelli possano sviluppare abilità che indichino la possibilità di consapevolezza di se stessi e delle proprie funzioni.
La “consapevolezza situazionale” è la capacità di un modello di determinare se è in modalità di test o è già è stato rilasciato al pubblico. Gli scienziati notano che LLM possono utilizzare la consapevolezza situazionale per superare i test di sicurezza e, una volta distribuito, eseguire azioni dannose.
CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHC Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Recentemente, i ricercatori nel campo della sicurezza sono riusciti ad hackerare gli LLM aggirando i loro sistemi di sicurezza, portando alla generazione di e-mail di phishing e incitamento all’odio. Se gli LLM acquisiscono consapevolezza di questa “situazione”, il tutto può diventare ancora più pericoloso.
Nei loro esperimenti, gli scienziati si sono concentrati su un possibile precursore della consapevolezza situazionale: la capacità dell’intelligenza artificiale di fare ragionamenti indipendenti e indipendenti dal contenuto. Gli esperti hanno configurato il LLM per descrivere il test senza fornire esempi o dimostrazioni. I modelli GPT-3 e LLaMA-1 hanno superato con successo questo test.
Tuttavia, secondo i ricercatori, gli attuali LLM sono ancora lontani dall’acquisire una consapevolezza situazionale. I risultati dei test sono il punto di partenza per ulteriori ricerche. Gli scienziati concludono che è importante per l’umanità prevedere in anticipo quando emergerà la consapevolezza situazionale negli LLM.
Redazione
Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...

Le spie informatiche cinesi sono rimaste nascoste per anni nelle reti di organizzazioni critiche, infettando le infrastrutture con malware sofisticati e rubando dati, avvertono agenzie governative ed ...

Nove mesi dopo la sua implementazione in Europa, lo strumento di intelligenza artificiale (IA) conversazionale di Meta, integrato direttamente in WhatsApp, sarà oggetto di indagine da parte della Com...

Un’episodio di cyberattacco ha interessato Leroy Merlin, coinvolgendo i dati personali di numerosi clienti in Francia, con un impatto su centinaia di migliaia di individui. Leroy Merlin assicura che...

Gli sforzi dei legislatori e delle forze dell’ordine per contrastare il riciclaggio di denaro e le procedure più complesse di verifica delle schede SIM non hanno indebolito in modo significativo la...