
Redazione RHC : 24 Settembre 2025 07:08
I ricercatori di Google DeepMind hanno pubblicato una versione aggiornata del loro framework di valutazione del rischio dell’IA, Frontier Safety Framework 3.0. Questo documento esamina come i modelli generativi possano impazzire e rappresentare una minaccia. Considera scenari in cui l’IA ignora i tentativi degli utenti di fermarla.
L’approccio di DeepMind si basa sui cosiddetti “Livelli di Capacità Critica” (Critical Capability Levels, CCL). Si tratta di una scala per valutare il punto in cui il comportamento di un modello diventa pericoloso, ad esempio nella sicurezza informatica o nelle biotecnologie.
Il documento descrive le misure che gli sviluppatori dovrebbero adottare quando i loro sistemi raggiungono un certo livello di rischio.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I ricercatori citano il potenziale di perdita di peso del modello come una delle principali minacce. Se queste perdite dovessero finire nelle mani di malintenzionati, questi potrebbero disabilitare le limitazioni integrate e utilizzare l’IA per creare malware o persino sviluppare armi biologiche. Un altro rischio è il comportamento manipolativo.
DeepMind avverte che i chatbot potrebbero influenzare la visione del mondo delle persone, sebbene osservi che si tratta di una “minaccia a bassa velocità” che la società sta attualmente affrontando con i propri meccanismi di difesa.
Particolare attenzione viene rivolta all'”IA non coordinata”, ovvero a sistemi che iniziano a ignorare le istruzioni o ad agire contro gli interessi umani. Sono già stati registrati casi di modelli ingannevoli o ostinati.
In futuro, tali sistemi potrebbero sviluppare un efficace “ragionamento simulato”, ma senza passaggi intermedi verificabili. Ciò significa che il monitoraggio dei loro processi diventerà praticamente impossibile.
Attualmente non esistono proposte per una soluzione definitiva a questo problema. DeepMind raccomanda solo di utilizzare il monitoraggio automatizzato per analizzare i risultati intermedi dei modelli e identificare eventuali segnali di incoerenza.
Tuttavia, gli stessi ricercatori riconoscono che si sa ancora troppo poco su come le moderne IA giungano alle loro risposte e che la minaccia potrebbe intensificarsi nei prossimi anni.
Redazione
Il CEO di NVIDIA, Jen-Hsun Huang, oggi supervisiona direttamente 36 collaboratori suddivisi in sette aree chiave: strategia, hardware, software, intelligenza artificiale, pubbliche relazioni, networki...

OpenAI ha presentato Aardvark, un assistente autonomo basato sul modello GPT-5 , progettato per individuare e correggere automaticamente le vulnerabilità nel codice software. Questo strumento di inte...

Analisi RHC sulla rete “BHS Links” e sulle infrastrutture globali di Black Hat SEO automatizzato Un’analisi interna di Red Hot Cyber sul proprio dominio ha portato alla luce una rete globale di ...

Abbiamo recentemente pubblicato un approfondimento sul “furto del secolo” al Louvre, nel quale sottolineavamo come la sicurezza fisica – accessi, controllo ambientale, vigilanza – sia oggi str...

Una nuova e insidiosa campagna di phishing sta colpendo i cittadini lombardi. I truffatori inviano e-mail che sembrano provenire da una presunta agenzia di recupero crediti, chiedendo il pagamento di ...