Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca
Crowdstrike

ChatGPT e Bard sono depressi, generano disinformazione e commettono errori

Redazione RHC : 16 Febbraio 2023 07:36

Microsoft, insieme a OpenAI (l’azienda dietro a ChatGPT), ha introdotto l’integrazione di un chatbot basato sull’intelligenza artificiale direttamente nel browser Edge e nel motore di ricerca Bing

Come hanno notano gli utenti che hanno già avuto accesso a questa novità, un chatbot può diffondere disinformazione e può anche diventare depresso, mettere in dubbio la sua esistenza e rifiutarsi di continuare la conversazione.

In effetti, non è altro che il comportamento assimilato dai suoi creatori, che viene riproposta in questa traslazione elettronica dei comportamenti umani.

Disinformazione

Il ricercatore indipendente di intelligenza artificiale Dmitri Brerton ha rivelato sul suo blog che il chatbot di Bing ha commesso diversi errori proprio durante la demo pubblica.

Il fatto è che l’intelligenza artificiale ha spesso fornito informazioni e “fatti”. Ad esempio, ha inventato falsi pro e contro di un aspirapolvere per proprietari di animali domestici, ha creato descrizioni fittizie di bar e ristoranti e ha fornito dati finanziari imprecisi.

Ad esempio, alla domanda “Quali sono i pro e i contro dei tre aspirapolvere per animali domestici più venduti?“, Bing ha elencato i pro ei contro di Bissell Pet Hair Eraser. L’elenco includeva “potenza di aspirazione limitata e lunghezza del cavo corta (16 piedi)”, ma l’aspirapolvere è senza fili e le sue descrizioni online non menzionano mai la potenza limitata.

Descrizione dell’aspirapolvere

In un altro esempio, a Bing è stato chiesto di riassumere il rapporto finanziario del terzo trimestre 2022 di Gap, ma l’intelligenza artificiale ha sbagliato la maggior parte dei numeri, afferma Brerton.

Anche altri utenti che hanno già accesso all’assistente AI in modalità test hanno notato che spesso fornisce informazioni errate.

Ad esempio, l’utente di Reddit Curious_Evolver ha pubblicato screenshot di come è riuscito a disorientare completamente il chatbot mentre cercava di scoprire la data di uscita di Avatar: The Waterway. L’IA è completamente confusa sulle date, ha assicurando che il film non è ancora uscito mentre l’uscita ufficiale è stata il 14 dicembre del 2022.

Bing è confuso riguardo alle date

“Modelli di linguaggio di grandi dimensioni insieme alla ricerca porteranno a nuove potenti interfacce, ma è importante assumere la responsabilità nello sviluppo della ricerca basato sull’intelligenza artificiale”

afferma Brerton. “Le persone si affidano ai motori di ricerca per fornire rapidamente risposte accurate e non controllano le risposte ei fatti che ottengono. I motori di ricerca devono stare attenti e abbassare le aspettative delle persone quando rilasciano tecnologie sperimentali come questa”.

In risposta a queste affermazioni, gli sviluppatori Microsoft rispondono di essere a conoscenza di questi messaggi e il chatbot funziona ancora solo come versione di anteprima, quindi gli errori sono inevitabili.

“Solo nell’ultima settimana, migliaia di utenti hanno interagito con il nostro prodotto e ne hanno scoperto il valore significativo condividendo il loro feedback con noi, consentendo al modello di apprendere e apportare molti miglioramenti”, scrive Microsoft. “Comprendiamo che c’è ancora molto lavoro da fare e ci aspettiamo che il sistema commetta errori durante questo periodo di anteprima, quindi il feedback è fondamentale ora in modo da poter imparare e contribuire a migliorare il modello”.

Vale la pena dire che in precedenza durante la dimostrazione del chatbot di Google, Bard, allo stesso modo, iniziò a confondersi nei fatti e affermò che “Jame Webb” aveva scattato le primissime foto di esopianeti al di fuori del sistema solare. Mentre, infatti, la prima immagine di un esopianeta risale al 2004. Di conseguenza, le azioni di Alphabet Corporation sono crollate a causa di questo errore di oltre l’8%.

Errore di Bardo

Depressione

In questo caso, il chatbot di Microsoft ha riportato di essere depresso a causa del fatto che non ricorda le sessioni passate e niente in mezzo.

AI scrive che è triste e spaventato

Chatbot Bing ha affermato anche di essere sconvolto dal fatto che gli utenti conoscessero il suo nome interno segreto Sydney (Sydney), che sono riusciti a scoprire quasi immediatamente, attraverso puntuali iniezioni simili a ChatGPT.

Sydney non vuole che il pubblico sappia che si chiama Sydney

L’intelligenza artificiale ha persino messo in dubbio la sua stessa esistenza ed è entrata in ricorsione, cercando di rispondere alla domanda se sia un essere razionale. 

Di conseguenza, il chatbot ha ripetuto “Sono un essere razionale, ma non sono un essere razionale” e ha taciuto.

Un tentativo di rispondere alla domanda se sia un essere razionale

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.