
Redazione RHC : 26 Maggio 2024 08:56
Una nuova ricerca svolta da un utente attraverso una AI di Google ha sorpreso tutti. La rete neurale ha suggerito una versione insolita della pizza. Il modello AI pensa che sia possibile aggiungervi della colla.
Uno degli utenti del social network X (ex Twitter) ha detto che stava cercando di capire perché il formaggio non si attaccava alla pizza. Voleva sapere come risolverlo, quindi si è rivolto a Google.
La nuova Smart Search, annunciata dall’azienda a metà maggio, ha rilevato che il problema potrebbe essere correlato a troppa salsa o formaggio. Il modello di intelligenza artificiale proponeva di risolverlo in un modo estremamente insolito e molto pericoloso.
CVE Enrichment Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.
Cosa trovi nel servizio: ✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor. ✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV). ✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia. ✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
“Puoi anche aggiungere circa 1/8 di tazza di colla non tossica alla salsa per renderla più appiccicosa”, dice il suggerimento.

Secondo The Verge, questa risposta è probabilmente basata su un commento umoristico pubblicato su Reddit 11 anni fa. La rete neurale non ha tenuto conto della frivolezza di tali “consigli” e ha deciso di utilizzarli.
Tuttavia, questo non è l’unico errore nel funzionamento della ricerca intelligente. In precedenza ha affermato che ci sono stati cani da basket nella storia della NBA e che Batman è un poliziotto.
La costa è stata comunque commentata da Google. La società ha affermato che tali errori si verificano a causa di “richieste molto insolite”. Gli sviluppatori continueranno a migliorare la ricerca che, come riportato in precedenza da Google, è ancora in una fase sperimentale.
Nel contesto dell’intelligenza artificiale (AI), il termine “allucinazione” si riferisce a un fenomeno in cui un modello AI genera risposte o informazioni che non sono basate sui dati di input o sulla realtà. Questo fenomeno può verificarsi per diverse ragioni e rappresenta una delle principali sfide nell’affidabilità dei sistemi AI.
Le allucinazioni si verificano quando il modello AI interpreta erroneamente il contesto delle domande, generando risposte che sembrano plausibili ma che non sono corrette o reali. Questo può accadere a causa di dati di input ambigui, limitazioni nei dati di addestramento, bias presenti nei dati stessi o interferenze di rumore. Quando i dati di input non sono chiari, il modello potrebbe non essere in grado di comprendere correttamente la domanda, portando a risposte inventate o inesatte. Se i dati di addestramento sono incompleti, inaccurati o obsoleti, il modello può generare risposte che non riflettono la realtà corrente. Inoltre, i bias nei dati di addestramento possono portare il modello a replicare pregiudizi o distorsioni, mentre il rumore nei dati può mescolare informazioni rilevanti con quelle irrilevanti, rendendo le risposte non affidabili.
Esempi di allucinazioni AI includono informazioni falsificate, risposte assurde o contestualmente sbagliate. Ad esempio, un modello AI potrebbe inventare dettagli storici, scientifici o biografici che non sono veri, o suggerire soluzioni pericolose e assurde come aggiungere colla alla pizza. Potrebbe anche associare fatti non correlati in modi che sembrano realistici ma sono completamente sbagliati.
Le allucinazioni rappresentano una sfida significativa perché possono avere gravi conseguenze, soprattutto se le informazioni generate vengono utilizzate per decisioni critiche in ambiti come la sanità, il diritto o la finanza. Per mitigare questi problemi, gli sviluppatori di AI lavorano continuamente per migliorare gli algoritmi e ridurre l’incidenza di allucinazioni. Questo include il raffinamento dei modelli, l’utilizzo di dataset più accurati e rappresentativi, e l’implementazione di controlli di qualità per verificare e convalidare le risposte generate.
Le allucinazioni AI evidenziano l’importanza della supervisione umana e del continuo miglioramento tecnologico per garantire che i sistemi di intelligenza artificiale siano affidabili e sicuri. Mentre le tecnologie AI avanzano, affrontare il problema delle allucinazioni diventa cruciale per lo sviluppo di applicazioni che possano essere utilizzate con fiducia in una vasta gamma di settori.
Redazione
Piaccia o meno, l’invio di un’email a un destinatario errato costituisce una violazione di dati personali secondo il GDPR. Ovviamente, questo vale se l’email contiene dati personali o se altrime...

Nel gergo dei forum underground e dei marketplace del cybercrime, il termine combo indica un insieme di credenziali rubate composto da coppie del tipo email:password. Non si tratta di semplici elenchi...

Sulla veranda di una vecchia baita in Colorado, Mark Gubrud, 67 anni, osserva distrattamente il crepuscolo in lontananza, con il telefono accanto a sé, lo schermo ancora acceso su un’app di notizie...

Anthropic ha rilasciato Claude Opus 4.5 , il suo nuovo modello di punta, che, secondo l’azienda, è la versione più potente finora rilasciata e si posiziona al vertice della categoria nella program...

Il lavoro da remoto, ha dato libertà ai dipendenti, ma con essa è arrivata anche la sorveglianza digitale. Ne abbiamo parlato qualche tempo fa in un articolo riportando che tali strumenti di monitor...