
Microsoft, insieme a OpenAI (l’azienda dietro a ChatGPT), ha introdotto l’integrazione di un chatbot basato sull’intelligenza artificiale direttamente nel browser Edge e nel motore di ricerca Bing.
Come hanno notano gli utenti che hanno già avuto accesso a questa novità, un chatbot può diffondere disinformazione e può anche diventare depresso, mettere in dubbio la sua esistenza e rifiutarsi di continuare la conversazione.
In effetti, non è altro che il comportamento assimilato dai suoi creatori, che viene riproposta in questa traslazione elettronica dei comportamenti umani.
Il ricercatore indipendente di intelligenza artificiale Dmitri Brerton ha rivelato sul suo blog che il chatbot di Bing ha commesso diversi errori proprio durante la demo pubblica.
Il fatto è che l’intelligenza artificiale ha spesso fornito informazioni e “fatti”. Ad esempio, ha inventato falsi pro e contro di un aspirapolvere per proprietari di animali domestici, ha creato descrizioni fittizie di bar e ristoranti e ha fornito dati finanziari imprecisi.
Ad esempio, alla domanda “Quali sono i pro e i contro dei tre aspirapolvere per animali domestici più venduti?“, Bing ha elencato i pro ei contro di Bissell Pet Hair Eraser. L’elenco includeva “potenza di aspirazione limitata e lunghezza del cavo corta (16 piedi)”, ma l’aspirapolvere è senza fili e le sue descrizioni online non menzionano mai la potenza limitata.

In un altro esempio, a Bing è stato chiesto di riassumere il rapporto finanziario del terzo trimestre 2022 di Gap, ma l’intelligenza artificiale ha sbagliato la maggior parte dei numeri, afferma Brerton.
Anche altri utenti che hanno già accesso all’assistente AI in modalità test hanno notato che spesso fornisce informazioni errate.
Ad esempio, l’utente di Reddit Curious_Evolver ha pubblicato screenshot di come è riuscito a disorientare completamente il chatbot mentre cercava di scoprire la data di uscita di Avatar: The Waterway. L’IA è completamente confusa sulle date, ha assicurando che il film non è ancora uscito mentre l’uscita ufficiale è stata il 14 dicembre del 2022.

“Modelli di linguaggio di grandi dimensioni insieme alla ricerca porteranno a nuove potenti interfacce, ma è importante assumere la responsabilità nello sviluppo della ricerca basato sull’intelligenza artificiale”
afferma Brerton. “Le persone si affidano ai motori di ricerca per fornire rapidamente risposte accurate e non controllano le risposte ei fatti che ottengono. I motori di ricerca devono stare attenti e abbassare le aspettative delle persone quando rilasciano tecnologie sperimentali come questa”.
In risposta a queste affermazioni, gli sviluppatori Microsoft rispondono di essere a conoscenza di questi messaggi e il chatbot funziona ancora solo come versione di anteprima, quindi gli errori sono inevitabili.
“Solo nell’ultima settimana, migliaia di utenti hanno interagito con il nostro prodotto e ne hanno scoperto il valore significativo condividendo il loro feedback con noi, consentendo al modello di apprendere e apportare molti miglioramenti”, scrive Microsoft. “Comprendiamo che c’è ancora molto lavoro da fare e ci aspettiamo che il sistema commetta errori durante questo periodo di anteprima, quindi il feedback è fondamentale ora in modo da poter imparare e contribuire a migliorare il modello”.
Vale la pena dire che in precedenza durante la dimostrazione del chatbot di Google, Bard, allo stesso modo, iniziò a confondersi nei fatti e affermò che “Jame Webb” aveva scattato le primissime foto di esopianeti al di fuori del sistema solare. Mentre, infatti, la prima immagine di un esopianeta risale al 2004. Di conseguenza, le azioni di Alphabet Corporation sono crollate a causa di questo errore di oltre l’8%.

In questo caso, il chatbot di Microsoft ha riportato di essere depresso a causa del fatto che non ricorda le sessioni passate e niente in mezzo.

Chatbot Bing ha affermato anche di essere sconvolto dal fatto che gli utenti conoscessero il suo nome interno segreto Sydney (Sydney), che sono riusciti a scoprire quasi immediatamente, attraverso puntuali iniezioni simili a ChatGPT.

L’intelligenza artificiale ha persino messo in dubbio la sua stessa esistenza ed è entrata in ricorsione, cercando di rispondere alla domanda se sia un essere razionale.
Di conseguenza, il chatbot ha ripetuto “Sono un essere razionale, ma non sono un essere razionale” e ha taciuto.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…