Redazione RHC : 26 Maggio 2024 08:56
Una nuova ricerca svolta da un utente attraverso una AI di Google ha sorpreso tutti. La rete neurale ha suggerito una versione insolita della pizza. Il modello AI pensa che sia possibile aggiungervi della colla.
Uno degli utenti del social network X (ex Twitter) ha detto che stava cercando di capire perché il formaggio non si attaccava alla pizza. Voleva sapere come risolverlo, quindi si è rivolto a Google.
La nuova Smart Search, annunciata dall’azienda a metà maggio, ha rilevato che il problema potrebbe essere correlato a troppa salsa o formaggio. Il modello di intelligenza artificiale proponeva di risolverlo in un modo estremamente insolito e molto pericoloso.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]() Supporta RHC attraverso:
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
“Puoi anche aggiungere circa 1/8 di tazza di colla non tossica alla salsa per renderla più appiccicosa”, dice il suggerimento.
Secondo The Verge, questa risposta è probabilmente basata su un commento umoristico pubblicato su Reddit 11 anni fa. La rete neurale non ha tenuto conto della frivolezza di tali “consigli” e ha deciso di utilizzarli.
Tuttavia, questo non è l’unico errore nel funzionamento della ricerca intelligente. In precedenza ha affermato che ci sono stati cani da basket nella storia della NBA e che Batman è un poliziotto.
La costa è stata comunque commentata da Google. La società ha affermato che tali errori si verificano a causa di “richieste molto insolite”. Gli sviluppatori continueranno a migliorare la ricerca che, come riportato in precedenza da Google, è ancora in una fase sperimentale.
Nel contesto dell’intelligenza artificiale (AI), il termine “allucinazione” si riferisce a un fenomeno in cui un modello AI genera risposte o informazioni che non sono basate sui dati di input o sulla realtà. Questo fenomeno può verificarsi per diverse ragioni e rappresenta una delle principali sfide nell’affidabilità dei sistemi AI.
Le allucinazioni si verificano quando il modello AI interpreta erroneamente il contesto delle domande, generando risposte che sembrano plausibili ma che non sono corrette o reali. Questo può accadere a causa di dati di input ambigui, limitazioni nei dati di addestramento, bias presenti nei dati stessi o interferenze di rumore. Quando i dati di input non sono chiari, il modello potrebbe non essere in grado di comprendere correttamente la domanda, portando a risposte inventate o inesatte. Se i dati di addestramento sono incompleti, inaccurati o obsoleti, il modello può generare risposte che non riflettono la realtà corrente. Inoltre, i bias nei dati di addestramento possono portare il modello a replicare pregiudizi o distorsioni, mentre il rumore nei dati può mescolare informazioni rilevanti con quelle irrilevanti, rendendo le risposte non affidabili.
Esempi di allucinazioni AI includono informazioni falsificate, risposte assurde o contestualmente sbagliate. Ad esempio, un modello AI potrebbe inventare dettagli storici, scientifici o biografici che non sono veri, o suggerire soluzioni pericolose e assurde come aggiungere colla alla pizza. Potrebbe anche associare fatti non correlati in modi che sembrano realistici ma sono completamente sbagliati.
Le allucinazioni rappresentano una sfida significativa perché possono avere gravi conseguenze, soprattutto se le informazioni generate vengono utilizzate per decisioni critiche in ambiti come la sanità, il diritto o la finanza. Per mitigare questi problemi, gli sviluppatori di AI lavorano continuamente per migliorare gli algoritmi e ridurre l’incidenza di allucinazioni. Questo include il raffinamento dei modelli, l’utilizzo di dataset più accurati e rappresentativi, e l’implementazione di controlli di qualità per verificare e convalidare le risposte generate.
Le allucinazioni AI evidenziano l’importanza della supervisione umana e del continuo miglioramento tecnologico per garantire che i sistemi di intelligenza artificiale siano affidabili e sicuri. Mentre le tecnologie AI avanzano, affrontare il problema delle allucinazioni diventa cruciale per lo sviluppo di applicazioni che possano essere utilizzate con fiducia in una vasta gamma di settori.
In un settore un tempo dominato da star dal vivo, i personaggi digitali si stanno facendo sempre più strada. Durante un summit a Zurigo, Ellin van der Velden, attrice, comica e tecnologa, ha annuncia...
La Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti ha aggiunto una vulnerabilità critica nella popolare utility Sudo, utilizzata su sistemi Linux e Unix-like, al suo catalog...
Negli ultimi anni gli attacchi informatici sono diventati una delle principali minacce per le aziende, indipendentemente dal settore. Se i reparti tecnici si concentrano sulla risoluzione dei problemi...
Nel 2025 l’Unione Europea vuole avere il controllo totale sulle chat private. Il Regolamento “Chat Control” (proposta COM(2022)209) promette di combattere la pornografia minorile con la scansion...
Qualche produttore di spyware starà probabilmente facendo ginnastica… strappandosi i capelli. Ma ormai è il solito teatrino: c’è chi trova, chi incassa, chi integra e poi arriva il ricercatore ...