
Redazione RHC : 19 Luglio 2025 09:24
L’intelligenza artificiale sta avanzando a un ritmo sorprendente, aprendo nuove opportunità ma ponendo anche gravi rischi. Riconoscendo la potenziale minaccia, importanti aziende tecnologiche tra cui Google DeepMind, OpenAI, Meta, Anthropic e diverse organizzazioni no-profit si sono unite per richiamare l’attenzione sulla necessità di monitorare il modo in cui l’intelligenza artificiale prende decisioni.
Un nuovo documento, sostenuto da personalità del settore, lancia un segnale d’allarme: la possibilità di osservare il pensiero dell’intelligenza artificiale potrebbe scomparire nel prossimo futuro.
L’articolo si concentra sulla tecnologia Chain-of-Thought (CoT), un metodo in cui l’intelligenza artificiale scompone un compito complesso in azioni graduali, in modo simile a come una persona risolverebbe un problema matematico complesso. Tali catene sono parte integrante dei moderni modelli linguistici, tra cui DeepSeek R1 e altri sistemi di intelligenza artificiale avanzati.
CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHC Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Gli autori sottolineano che le CoT si sono già dimostrate efficaci nel rilevare comportamenti indesiderati dell’IA. Ad esempio, sono state in grado di rilevare casi in cui agenti IA hanno sfruttato falle nei loro sistemi di ricompensa o manipolato dati per ottenere un risultato desiderato. Tuttavia, con la crescente complessità dell’IA, diventa sempre più difficile comprendere come queste giungano alle loro conclusioni.
A questo proposito, i partecipanti all’iniziativa insistono sulla necessità di un’analisi più approfondita della struttura delle CoT e dello sviluppo di metodi che ne preservino l’osservabilità. Propongono inoltre di considerare le CoT come una componente importante della strategia di sicurezza dell’IA.
Nel loro articolo, gli autori osservano che il monitoraggio CoT potrebbe diventare uno strumento raro e prezioso per il controllo di potenti agenti di intelligenza artificiale. Tuttavia, avvertono che non vi è alcuna certezza che tale trasparenza venga preservata in futuro. Per questo motivo, si consiglia agli sviluppatori di intelligenza artificiale di sfruttare al massimo le loro attuali capacità di analisi delle catene di ragionamento e di studiare come questa capacità possa essere preservata in futuro.
Il fatto stesso che i rappresentanti di aziende concorrenti abbiano firmato un documento congiunto indica la gravità del problema. Man mano che l’intelligenza artificiale penetra sempre più in ambiti chiave della vita, garantirne la sicurezza diventa non solo un compito tecnico, ma anche etico e sociale.
Redazione
Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...