Redazione RHC : 26 Maggio 2024 08:56
Una nuova ricerca svolta da un utente attraverso una AI di Google ha sorpreso tutti. La rete neurale ha suggerito una versione insolita della pizza. Il modello AI pensa che sia possibile aggiungervi della colla.
Uno degli utenti del social network X (ex Twitter) ha detto che stava cercando di capire perché il formaggio non si attaccava alla pizza. Voleva sapere come risolverlo, quindi si è rivolto a Google.
La nuova Smart Search, annunciata dall’azienda a metà maggio, ha rilevato che il problema potrebbe essere correlato a troppa salsa o formaggio. Il modello di intelligenza artificiale proponeva di risolverlo in un modo estremamente insolito e molto pericoloso.
Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber
«Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi».
Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca.
Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare.
Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
“Puoi anche aggiungere circa 1/8 di tazza di colla non tossica alla salsa per renderla più appiccicosa”, dice il suggerimento.
Secondo The Verge, questa risposta è probabilmente basata su un commento umoristico pubblicato su Reddit 11 anni fa. La rete neurale non ha tenuto conto della frivolezza di tali “consigli” e ha deciso di utilizzarli.
Tuttavia, questo non è l’unico errore nel funzionamento della ricerca intelligente. In precedenza ha affermato che ci sono stati cani da basket nella storia della NBA e che Batman è un poliziotto.
La costa è stata comunque commentata da Google. La società ha affermato che tali errori si verificano a causa di “richieste molto insolite”. Gli sviluppatori continueranno a migliorare la ricerca che, come riportato in precedenza da Google, è ancora in una fase sperimentale.
Nel contesto dell’intelligenza artificiale (AI), il termine “allucinazione” si riferisce a un fenomeno in cui un modello AI genera risposte o informazioni che non sono basate sui dati di input o sulla realtà. Questo fenomeno può verificarsi per diverse ragioni e rappresenta una delle principali sfide nell’affidabilità dei sistemi AI.
Le allucinazioni si verificano quando il modello AI interpreta erroneamente il contesto delle domande, generando risposte che sembrano plausibili ma che non sono corrette o reali. Questo può accadere a causa di dati di input ambigui, limitazioni nei dati di addestramento, bias presenti nei dati stessi o interferenze di rumore. Quando i dati di input non sono chiari, il modello potrebbe non essere in grado di comprendere correttamente la domanda, portando a risposte inventate o inesatte. Se i dati di addestramento sono incompleti, inaccurati o obsoleti, il modello può generare risposte che non riflettono la realtà corrente. Inoltre, i bias nei dati di addestramento possono portare il modello a replicare pregiudizi o distorsioni, mentre il rumore nei dati può mescolare informazioni rilevanti con quelle irrilevanti, rendendo le risposte non affidabili.
Esempi di allucinazioni AI includono informazioni falsificate, risposte assurde o contestualmente sbagliate. Ad esempio, un modello AI potrebbe inventare dettagli storici, scientifici o biografici che non sono veri, o suggerire soluzioni pericolose e assurde come aggiungere colla alla pizza. Potrebbe anche associare fatti non correlati in modi che sembrano realistici ma sono completamente sbagliati.
Le allucinazioni rappresentano una sfida significativa perché possono avere gravi conseguenze, soprattutto se le informazioni generate vengono utilizzate per decisioni critiche in ambiti come la sanità, il diritto o la finanza. Per mitigare questi problemi, gli sviluppatori di AI lavorano continuamente per migliorare gli algoritmi e ridurre l’incidenza di allucinazioni. Questo include il raffinamento dei modelli, l’utilizzo di dataset più accurati e rappresentativi, e l’implementazione di controlli di qualità per verificare e convalidare le risposte generate.
Le allucinazioni AI evidenziano l’importanza della supervisione umana e del continuo miglioramento tecnologico per garantire che i sistemi di intelligenza artificiale siano affidabili e sicuri. Mentre le tecnologie AI avanzano, affrontare il problema delle allucinazioni diventa cruciale per lo sviluppo di applicazioni che possano essere utilizzate con fiducia in una vasta gamma di settori.
Sasha Levin, sviluppatore di kernel Linux di lunga data, che lavora presso NVIDIA e in precedenza presso Google e Microsoft, ha proposto di aggiungere alla documentazione del kernel regole formali per...
Google sta trasformando il suo motore di ricerca in una vetrina per l’intelligenza artificiale, e questo potrebbe significare un disastro per l’intera economia digitale. Secondo un nuovo...
Il panorama delle minacce non dorme mai, ma stavolta si è svegliato con il botto. Il 18 luglio 2025, l’azienda di sicurezza Eye Security ha lanciato un allarme che ha subito trovato eco ne...
Nel corso di un’operazione internazionale coordinata, denominata “Operation Checkmate”, le forze dell’ordine hanno sferrato un duro colpo al gruppo ransomware BlackSuit (qu...
Il Dipartimento di Giustizia degli Stati Uniti ha segnalato lo smantellamento di quattro piattaforme darknet utilizzate per la distribuzione di materiale pedopornografico. Contemporaneamente, un dicio...
Iscriviti alla newsletter settimanale di Red Hot Cyber per restare sempre aggiornato sulle ultime novità in cybersecurity e tecnologia digitale.
Copyright @ REDHOTCYBER Srl
PIVA 17898011006