
Dalla sua introduzione lo scorso anno, il chatbot ChatGPT di OpenAI è diventato in poco tempo uno degli strumenti di intelligenza artificiale più diffusi e allo stesso tempo chiacchierati. Tuttavia, gli esperti parlano sempre più spesso dei possibili rischi associati allo sviluppo di questa tecnologia.
Recentemente, un team internazionale di scienziati, tra cui uno dei membri del consiglio di OpenAI, ha condotto una ricerca volta a identificare il “punto di non ritorno” per i Large Language Models (LLM), come ChatGPT. La questione principale è se i modelli possano sviluppare abilità che indichino la possibilità di consapevolezza di se stessi e delle proprie funzioni.
La “consapevolezza situazionale” è la capacità di un modello di determinare se è in modalità di test o è già è stato rilasciato al pubblico. Gli scienziati notano che LLM possono utilizzare la consapevolezza situazionale per superare i test di sicurezza e, una volta distribuito, eseguire azioni dannose.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Recentemente, i ricercatori nel campo della sicurezza sono riusciti ad hackerare gli LLM aggirando i loro sistemi di sicurezza, portando alla generazione di e-mail di phishing e incitamento all’odio. Se gli LLM acquisiscono consapevolezza di questa “situazione”, il tutto può diventare ancora più pericoloso.
Nei loro esperimenti, gli scienziati si sono concentrati su un possibile precursore della consapevolezza situazionale: la capacità dell’intelligenza artificiale di fare ragionamenti indipendenti e indipendenti dal contenuto. Gli esperti hanno configurato il LLM per descrivere il test senza fornire esempi o dimostrazioni. I modelli GPT-3 e LLaMA-1 hanno superato con successo questo test.
Tuttavia, secondo i ricercatori, gli attuali LLM sono ancora lontani dall’acquisire una consapevolezza situazionale. I risultati dei test sono il punto di partenza per ulteriori ricerche. Gli scienziati concludono che è importante per l’umanità prevedere in anticipo quando emergerà la consapevolezza situazionale negli LLM.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

HackingIl team AI Research (STAR) di Straiker ha individuato Villager, un framework di penetration testing nativo basato sull’intelligenza artificiale, sviluppato dal gruppo cinese Cyberspike. Lo strumento, presentato come soluzione red team, è progettato per automatizzare…
InnovazioneIl confine tra Cina e Vietnam avrà presto nuovi “dipendenti” che non hanno bisogno di dormire, mangiare o fare turni. L’azienda cinese UBTech Robotics ha ricevuto un contratto da 264 milioni di yuan (circa 37…
CulturaLa cultura hacker è una materia affascinante. E’ una ricca miniera di stravaganti innovazioni, genialità ed intuito. Di personaggi bizzarri, di umorismo fatalista, di meme, ma soprattutto cultura, ingegneria e scienza. Ma mentre Linux ha…
CybercrimeAll’interno di un forum underground chiuso, frequentato da operatori malware e broker di accesso iniziale, è comparso un annuncio che ha attirato l’attenzione della comunità di cyber threat intelligence. Il post promuove “NtKiller”, una presunta…
Cyber ItaliaMentre la consapevolezza sulla cybersicurezza cresce, il mercato nero dei dati personali non accenna a fermarsi. Un recente post apparso su un noto forum frequentato da criminali informatici in lingua russa, scoperto dai ricercatori di…