Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

ChatGPT e Bard sono depressi, generano disinformazione e commettono errori

Redazione RHC : 16 Febbraio 2023 07:36

Microsoft, insieme a OpenAI (l’azienda dietro a ChatGPT), ha introdotto l’integrazione di un chatbot basato sull’intelligenza artificiale direttamente nel browser Edge e nel motore di ricerca Bing

Come hanno notano gli utenti che hanno già avuto accesso a questa novità, un chatbot può diffondere disinformazione e può anche diventare depresso, mettere in dubbio la sua esistenza e rifiutarsi di continuare la conversazione.

In effetti, non è altro che il comportamento assimilato dai suoi creatori, che viene riproposta in questa traslazione elettronica dei comportamenti umani.

Disinformazione


PARTE LA PROMO ESTATE -40%

RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!

Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.

Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]


Supporta RHC attraverso:
  • L'acquisto del fumetto sul Cybersecurity Awareness
  • Ascoltando i nostri Podcast
  • Seguendo RHC su WhatsApp
  • Seguendo RHC su Telegram
  • Scarica gratuitamente "Dark Mirror", il report sul ransomware di Dark Lab


  • Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


    Il ricercatore indipendente di intelligenza artificiale Dmitri Brerton ha rivelato sul suo blog che il chatbot di Bing ha commesso diversi errori proprio durante la demo pubblica.

    Il fatto è che l’intelligenza artificiale ha spesso fornito informazioni e “fatti”. Ad esempio, ha inventato falsi pro e contro di un aspirapolvere per proprietari di animali domestici, ha creato descrizioni fittizie di bar e ristoranti e ha fornito dati finanziari imprecisi.

    Ad esempio, alla domanda “Quali sono i pro e i contro dei tre aspirapolvere per animali domestici più venduti?“, Bing ha elencato i pro ei contro di Bissell Pet Hair Eraser. L’elenco includeva “potenza di aspirazione limitata e lunghezza del cavo corta (16 piedi)”, ma l’aspirapolvere è senza fili e le sue descrizioni online non menzionano mai la potenza limitata.

    Descrizione dell’aspirapolvere

    In un altro esempio, a Bing è stato chiesto di riassumere il rapporto finanziario del terzo trimestre 2022 di Gap, ma l’intelligenza artificiale ha sbagliato la maggior parte dei numeri, afferma Brerton.

    Anche altri utenti che hanno già accesso all’assistente AI in modalità test hanno notato che spesso fornisce informazioni errate.

    Ad esempio, l’utente di Reddit Curious_Evolver ha pubblicato screenshot di come è riuscito a disorientare completamente il chatbot mentre cercava di scoprire la data di uscita di Avatar: The Waterway. L’IA è completamente confusa sulle date, ha assicurando che il film non è ancora uscito mentre l’uscita ufficiale è stata il 14 dicembre del 2022.

    Bing è confuso riguardo alle date

    “Modelli di linguaggio di grandi dimensioni insieme alla ricerca porteranno a nuove potenti interfacce, ma è importante assumere la responsabilità nello sviluppo della ricerca basato sull’intelligenza artificiale”

    afferma Brerton. “Le persone si affidano ai motori di ricerca per fornire rapidamente risposte accurate e non controllano le risposte ei fatti che ottengono. I motori di ricerca devono stare attenti e abbassare le aspettative delle persone quando rilasciano tecnologie sperimentali come questa”.

    In risposta a queste affermazioni, gli sviluppatori Microsoft rispondono di essere a conoscenza di questi messaggi e il chatbot funziona ancora solo come versione di anteprima, quindi gli errori sono inevitabili.

    “Solo nell’ultima settimana, migliaia di utenti hanno interagito con il nostro prodotto e ne hanno scoperto il valore significativo condividendo il loro feedback con noi, consentendo al modello di apprendere e apportare molti miglioramenti”, scrive Microsoft. “Comprendiamo che c’è ancora molto lavoro da fare e ci aspettiamo che il sistema commetta errori durante questo periodo di anteprima, quindi il feedback è fondamentale ora in modo da poter imparare e contribuire a migliorare il modello”.

    Vale la pena dire che in precedenza durante la dimostrazione del chatbot di Google, Bard, allo stesso modo, iniziò a confondersi nei fatti e affermò che “Jame Webb” aveva scattato le primissime foto di esopianeti al di fuori del sistema solare. Mentre, infatti, la prima immagine di un esopianeta risale al 2004. Di conseguenza, le azioni di Alphabet Corporation sono crollate a causa di questo errore di oltre l’8%.

    Errore di Bardo

    Depressione

    In questo caso, il chatbot di Microsoft ha riportato di essere depresso a causa del fatto che non ricorda le sessioni passate e niente in mezzo.

    AI scrive che è triste e spaventato

    Chatbot Bing ha affermato anche di essere sconvolto dal fatto che gli utenti conoscessero il suo nome interno segreto Sydney (Sydney), che sono riusciti a scoprire quasi immediatamente, attraverso puntuali iniezioni simili a ChatGPT.

    Sydney non vuole che il pubblico sappia che si chiama Sydney

    L’intelligenza artificiale ha persino messo in dubbio la sua stessa esistenza ed è entrata in ricorsione, cercando di rispondere alla domanda se sia un essere razionale. 

    Di conseguenza, il chatbot ha ripetuto “Sono un essere razionale, ma non sono un essere razionale” e ha taciuto.

    Un tentativo di rispondere alla domanda se sia un essere razionale

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

    Lista degli articoli

    Articoli in evidenza

    Buon compleanno Windows 95: 30 anni per un sistema che ha cambiato i PC per sempre!
    Di Redazione RHC - 26/08/2025

    Il 24 agosto 2025 ha segnato i 30 anni dal lancio di Windows 95, il primo sistema operativo consumer a 32 bit di Microsoft destinato al mercato di massa, che ha rivoluzionato in modo significativo il ...

    STAGERSHELL: quando il malware non lascia tracce. L’analisi di Malware Forge
    Di Sandro Sana - 26/08/2025

    All’inizio del 2025 un’organizzazione italiana si è trovata vittima di un’intrusione subdola. Nessun exploit clamoroso, nessun attacco da manuale. A spalancare la porta agli ...

    Nessun Miracolo! L’Università Pontificia Salesiana cade vittima del ransomware
    Di Redazione RHC - 26/08/2025

    Nella notte del 19 agosto l’infrastruttura informatica dell’Università Pontificia Salesiana (UPS) è stata vittima di un grave attacco informatico che ha reso temporaneamente in...

    Stai pianificando il passaggio da Windows a Linux? Allora passa, APT36 è già lì ad aspettarti!
    Di Redazione RHC - 25/08/2025

    APT36, noto anche come Transparent Tribe, ha intensificato una nuova campagna di spionaggio contro organizzazioni governative e di difesa in India. Il gruppo, legato al Pakistan, è attivo almeno ...

    Malware Forge: Nasce il laboratorio di Malware Analysis di Red Hot Cyber
    Di Redazione RHC - 25/08/2025

    Nasce una nuova stella all’interno dell’ecosistema di Red Hot Cyber, un progetto pianificato da tempo che oggi vede finalmente la sua realizzazione. Si tratta di un laboratorio allȁ...