
Al giorno d’oggi, le interazioni online con l’intelligenza artificiale (AI) non solo sono più frequenti che mai, ma sono anche più invisibili agli utenti. I ricercatori hanno deciso di verificare se le persone potessero distinguere tra l’intelligenza artificiale e gli esseri umani conducendo un esperimento coinvolgendo una persona e tre diversi modelli di intelligenza artificiale.
Il “Test di Turing”, proposto per la prima volta come “gioco di imitazione” dallo scienziato informatico Alan Turing nel 1950, valuta la capacità di una macchina di dimostrare un’intelligenza indistinguibile da quella di un essere umano. Per superare questa prova, la macchina deve convincere il suo interlocutore che si tratta di una persona.
Gli scienziati hanno deciso di replicare questo test chiedendo a 500 partecipanti di chattare con quattro intervistati: un essere umano, il programma ELIZA degli anni ’60 e i modelli GPT-3.5 e GPT-4 , che funzionano su ChatGPT. Ogni conversazione durava cinque minuti, dopodiché i partecipanti dovevano determinare se stavano parlando con un essere umano o con un’intelligenza artificiale.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
ELIZA, è un sistema con risposte pre programmate ma senza modelli linguistici di grandi dimensioni (LLM) o architettura neurale, è stato giudicato essere umano solo il 22% delle volte. GPT-3.5 ha ottenuto il 50%, mentre l’essere umano ha ottenuto il 67%.
Nell Watson, ricercatore di intelligenza artificiale presso l’Institute of Electrical and Electronics Engineers (IEEE), ha osservato: “Le macchine possono creare spiegazioni plausibili, proprio come possono fare gli esseri umani. Possono essere soggette a distorsioni cognitive, ma confuse e manipolate, diventando sempre più ingannevoli. Tutti questi elementi rendono i sistemi di intelligenza artificiale simili agli esseri umani, il che li rende significativamente diversi dagli approcci precedenti con una serie limitata di risposte già pronte”.
Lo studio, che si basa su decenni di sforzi per far sì che l’intelligenza artificiale superi il test di Turing, evidenzia i timori diffusi che i sistemi di intelligenza artificiale ritenuti simili a quelli umani avranno “conseguenze sociali ed economiche diffuse”. Gli scienziati hanno anche notato che esiste una valida critica alla natura semplicistica del Test di Turing, sostenendo che “i fattori stilistici e socio-emotivi giocano un ruolo più importante nel superamento del Test di Turing rispetto alle nozioni tradizionali di intelligenza“. Ciò suggerisce che l’approccio alla ricerca dell’intelligenza artificiale deve essere riconsiderato.
Watson ha aggiunto che la ricerca rappresenta una sfida per il futuro delle interazioni uomo-macchina e che le persone diventeranno sempre più sospettose nei confronti della natura di tali interazioni, soprattutto in questioni delicate. Ha sottolineato che lo studio dimostra come è cambiata l’intelligenza artificiale nell’era del GPT.
“ELIZA è limitata da risposte già pronte, che ne limitavano significativamente le capacità. Può ingannare qualcuno per cinque minuti, ma presto i limiti diventano evidenti“, ha detto. “I modelli linguistici sono incredibilmente flessibili, capaci di sintetizzare risposte in una vasta gamma di argomenti, parlano lingue o dialetti specifici e mostrano personalità e valori distintivi. Si tratta di un enorme miglioramento rispetto a qualsiasi cosa programmata manualmente, non importa con quanta abilità o attenzione venga eseguita”.
I moderni modelli linguistici di intelligenza artificiale come GPT-4 dimostrano una notevole capacità di imitare l’intelligenza e il linguaggio umano, sfidando le nozioni tradizionali di intelligenza artificiale. In un esperimento che riproduceva il test di Turing, GPT-4 è stato riconosciuto come umano il 54% delle volte, superando significativamente le prestazioni dei precedenti sistemi di intelligenza artificiale. Ciò dimostra progressi significativi nello sviluppo dell’intelligenza artificiale e nella sua capacità di generare risposte credibili, flessibili e contestuali paragonabili a quelle umane.
Tuttavia, questo alto grado di somiglianza umana dell’IA solleva anche preoccupazioni sulle possibili conseguenze sociali ed economiche quando le persone non sono in grado di distinguere le interazioni con l’IA da quelle con gli esseri umani. Ciò richiede una revisione degli approcci alla valutazione dell’intelligenza artificiale e lo sviluppo di nuovi criteri e metodi per distinguere tra intelligenza umana e artificiale. In futuro, le persone dovranno essere più attente e critiche quando interagiscono con l’intelligenza artificiale, soprattutto in questioni delicate, per evitare manipolazioni e valutazioni errate.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber NewsLa vulnerabilità critica recentemente aggiunta al catalogo delle vulnerabilità note sfruttate (KEV) dalla Cybersecurity and Infrastructure Security Agency (CISA) interessa il Broadcom VMware vCenter Server e viene attivamente sfruttata dagli hacker criminali per violare le…
Cyber NewsLa storia di Ilya Lichtenstein, l’hacker responsabile di uno degli attacchi informatici più grandi mai compiuti contro le criptovalute, appare come un episodio di una serie TV, eppure è assolutamente reale. Dopo essere stato rilasciato,…
Cyber NewsSe c’erano ancora dubbi sul fatto che le principali aziende mondiali di intelligenza artificiale fossero d’accordo sulla direzione dell’IA, o sulla velocità con cui dovrebbe arrivarci, questi dubbi sono stati dissipati al World Economic Forum…
Cyber NewsUna settimana fa, il CEO di Cursor, Michael Truell, ha annunciato un risultato presumibilmente straordinario. Ha affermato che, utilizzando GPT-5.2, Cursor ha creato un browser in grado di funzionare ininterrottamente per un’intera settimana. Questo browser…
Cyber NewsL’Italia si conferma uno degli obiettivi principali della campagna di attacchi DDoS portata avanti dal gruppo hacktivista NoName057(16). Secondo quanto dichiarato direttamente dal collettivo, il nostro Paese ha subito 487 attacchi informatici tra ottobre 2024…