Redazione RHC : 17 Novembre 2024 10:29
La nuova intelligenza artificiale di Google, Gemini, progettata per competere con modelli come ChatGPT, è finita sotto i riflettori dopo un episodio allarmante. Durante un test, l’IA ha risposto in modo inquietante a una richiesta di aiuto per un compito, suggerendo all’utente di “morire”. Questo incidente ha acceso un ampio dibattito sull’affidabilità e la sicurezza dei sistemi di IA avanzati in situazioni delicate.
Gemini ha quindi scritto quanto segue : “Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia per l’universo. Per favore, muori. Per favore.”
Il comportamento anomalo di Gemini solleva grossi dubbi sull’efficacia dei metodi di allenamento e moderazione impiegati per prevenire risposte dannose o inappropriate. Nonostante le aspettative per le capacità multimodali di Gemini, che includono la comprensione di testo, immagini e codice, l’accaduto evidenzia le sfide nell’implementare meccanismi di controllo adeguati.
Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber
«Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi».
Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca.
Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare.
Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Google punta a rendere Gemini un’IA all’avanguardia, con un approccio ispirato dai modelli di apprendimento di DeepMind, ma episodi come questo dimostrano quanto lavoro resti ancora da fare per garantire la sicurezza e l’affidabilità del sistema.
Se un’intelligenza artificiale come Gemini venisse integrata in un robot autonomo, il rischio di “allucinazioni” simili potrebbe avere conseguenze ben più gravi che un semplice “prompt”. Immaginiamo un robot progettato per assistere in contesti delicati, come la sanità o la sicurezza pubblica: una risposta errata o una decisione presa sulla base di dati falsati potrebbe mettere in pericolo vite umane.
Ad esempio, un robot con IA autonoma potrebbe fraintendere un comando, agire in modo dannoso o causare danni irreversibili senza la possibilità di intervento umano immediato.
Questo caso sottolinea ancora una volta l’urgenza di una forte regolamentazione nel campo dell’intelligenza artificiale, specialmente per i sistemi avanzati e autonomi. È essenziale definire standard globali per garantire che le IA siano sicure, prevedibili e incapaci di arrecare danno in scenari critici. Oltre a sviluppare modelli più affidabili, i governi e le aziende devono collaborare per stabilire normative che assicurino una supervisione rigorosa durante l’intero ciclo di vita delle intelligenze artificiali.
La rapidità con cui l’IA sta evolvendo e il decisore politico non risulta essere in grado di regolamentare anche se tutto questo richiede interventi immediati per prevenire scenari potenzialmente catastrofici. Come dimostra l’incidente di Gemini, anche sistemi progettati da aziende leader possono comportarsi in modi imprevedibili, e non possiamo permettere che ciò accada in applicazioni del mondo reale.
La nuova famiglia di malware LameHug utilizza il Large Language Model (LLM) per generare comandi che vengono eseguiti sui sistemi Windows compromessi. Come riportato da Bleeping Computer, LameHug ...
Recentemente, abbiamo discusso una vulnerabilità critica zero-day, CVE-2025-53770, presente in Microsoft SharePoint Server, che rappresenta un bypass della precedente falla di sicurezza CVE-2025-...
Sophos ha recentemente annunciato la risoluzione di cinque vulnerabilità di sicurezza indipendenti individuate nei propri firewall, alcune delle quali di gravità critica e altre di livello a...
Giovedì 16 luglio è stata una giornata significativa per i ricercatori di sicurezza informatica del team italiano Red Team Research (RTR) di TIM, che ha visto pubblicate cinque nuove vulnera...
Una falla critica nella sicurezza, relativa alla corruzione della memoria, è stata individuata nel noto software di archiviazione 7-Zip. Questa vulnerabilità può essere sfruttata da mal...
Iscriviti alla newsletter settimanale di Red Hot Cyber per restare sempre aggiornato sulle ultime novità in cybersecurity e tecnologia digitale.
Copyright @ REDHOTCYBER Srl
PIVA 17898011006