Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Il Test di Turing non basta più! Ora che è stato superato occorrono nuovi criteri di valutazione delle AI

Il Test di Turing non basta più! Ora che è stato superato occorrono nuovi criteri di valutazione delle AI

15 Giugno 2024 15:57


Al giorno d’oggi, le interazioni online con l’intelligenza artificiale (AI) non solo sono più frequenti che mai, ma sono anche più invisibili agli utenti. I ricercatori hanno deciso di verificare se le persone potessero distinguere tra l’intelligenza artificiale e gli esseri umani conducendo un esperimento coinvolgendo una persona e tre diversi modelli di intelligenza artificiale.

Il “Test di Turing”, proposto per la prima volta come “gioco di imitazione” dallo scienziato informatico Alan Turing nel 1950, valuta la capacità di una macchina di dimostrare un’intelligenza indistinguibile da quella di un essere umano. Per superare questa prova, la macchina deve convincere il suo interlocutore che si tratta di una persona.

Gli scienziati hanno deciso di replicare questo test chiedendo a 500 partecipanti di chattare con quattro intervistati: un essere umano, il programma ELIZA degli anni ’60 e i modelli GPT-3.5 e GPT-4 , che funzionano su ChatGPT. Ogni conversazione durava cinque minuti, dopodiché i partecipanti dovevano determinare se stavano parlando con un essere umano o con un’intelligenza artificiale.

ELIZA, è un sistema con risposte pre programmate ma senza modelli linguistici di grandi dimensioni (LLM) o architettura neurale, è stato giudicato essere umano solo il 22% delle volte. GPT-3.5 ha ottenuto il 50%, mentre l’essere umano ha ottenuto il 67%.

Nell Watson, ricercatore di intelligenza artificiale presso l’Institute of Electrical and Electronics Engineers (IEEE), ha osservato: “Le macchine possono creare spiegazioni plausibili, proprio come possono fare gli esseri umani. Possono essere soggette a distorsioni cognitive, ma confuse e manipolate, diventando sempre più ingannevoli. Tutti questi elementi rendono i sistemi di intelligenza artificiale simili agli esseri umani, il che li rende significativamente diversi dagli approcci precedenti con una serie limitata di risposte già pronte”.

Lo studio, che si basa su decenni di sforzi per far sì che l’intelligenza artificiale superi il test di Turing, evidenzia i timori diffusi che i sistemi di intelligenza artificiale ritenuti simili a quelli umani avranno “conseguenze sociali ed economiche diffuse”. Gli scienziati hanno anche notato che esiste una valida critica alla natura semplicistica del Test di Turing, sostenendo che “i fattori stilistici e socio-emotivi giocano un ruolo più importante nel superamento del Test di Turing rispetto alle nozioni tradizionali di intelligenza“. Ciò suggerisce che l’approccio alla ricerca dell’intelligenza artificiale deve essere riconsiderato.

Watson ha aggiunto che la ricerca rappresenta una sfida per il futuro delle interazioni uomo-macchina e che le persone diventeranno sempre più sospettose nei confronti della natura di tali interazioni, soprattutto in questioni delicate. Ha sottolineato che lo studio dimostra come è cambiata l’intelligenza artificiale nell’era del GPT.

ELIZA è limitata da risposte già pronte, che ne limitavano significativamente le capacità. Può ingannare qualcuno per cinque minuti, ma presto i limiti diventano evidenti“, ha detto. “I modelli linguistici sono incredibilmente flessibili, capaci di sintetizzare risposte in una vasta gamma di argomenti, parlano lingue o dialetti specifici e mostrano personalità e valori distintivi. Si tratta di un enorme miglioramento rispetto a qualsiasi cosa programmata manualmente, non importa con quanta abilità o attenzione venga eseguita”.

I moderni modelli linguistici di intelligenza artificiale come GPT-4 dimostrano una notevole capacità di imitare l’intelligenza e il linguaggio umano, sfidando le nozioni tradizionali di intelligenza artificiale. In un esperimento che riproduceva il test di Turing, GPT-4 è stato riconosciuto come umano il 54% delle volte, superando significativamente le prestazioni dei precedenti sistemi di intelligenza artificiale. Ciò dimostra progressi significativi nello sviluppo dell’intelligenza artificiale e nella sua capacità di generare risposte credibili, flessibili e contestuali paragonabili a quelle umane.

Tuttavia, questo alto grado di somiglianza umana dell’IA solleva anche preoccupazioni sulle possibili conseguenze sociali ed economiche quando le persone non sono in grado di distinguere le interazioni con l’IA da quelle con gli esseri umani. Ciò richiede una revisione degli approcci alla valutazione dell’intelligenza artificiale e lo sviluppo di nuovi criteri e metodi per distinguere tra intelligenza umana e artificiale. In futuro, le persone dovranno essere più attente e critiche quando interagiscono con l’intelligenza artificiale, soprattutto in questioni delicate, per evitare manipolazioni e valutazioni errate.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…