Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Il chatbot Tay ritirato da Microsoft: le sfide nello sviluppo delle AI sono tecniche e sociali

Il chatbot Tay ritirato da Microsoft: le sfide nello sviluppo delle AI sono tecniche e sociali

19 Settembre 2025 15:31

Microsoft ha recentemente lanciato un chatbot chiamato Tay, progettato per interagire con giovani adulti negli Stati Uniti e offrire un’esperienza di intrattenimento. Tuttavia, nei primi giorni di attività, Tay ha pubblicato contenuti offensivi, costringendo l’azienda a rimuoverlo temporaneamente dalla piattaforma. L’azienda ha sottolineato che i comportamenti di Tay non riflettono i propri principi o i valori con cui il sistema è stato progettato.

Il lancio di Tay rappresenta il tentativo di Microsoft di replicare in contesti culturali diversi il successo ottenuto in Cina con XiaoIce, un altro chatbot che coinvolge circa 40 milioni di utenti attraverso storie e conversazioni. L’esperienza positiva con XiaoIce ha stimolato la riflessione sull’adattabilità dell’intelligenza artificiale in ambienti social differenti, portando alla creazione di Tay come primo esperimento su larga scala negli Stati Uniti.

Durante la fase di sviluppo, Tay è stata sottoposta a stress test e sono stati implementati numerosi filtri per garantire interazioni positive. Studi approfonditi sugli utenti hanno permesso di comprendere meglio il comportamento dell’IA in scenari controllati. Microsoft aveva previsto di estendere progressivamente l’interazione a gruppi più ampi per migliorare continuamente l’apprendimento del sistema.

Twitter è stato scelto come piattaforma logica per l’espansione dell’interazione, data la sua ampia base di utenti. Tuttavia, nelle prime 24 ore, Tay è stata vittima di un attacco coordinato da un piccolo gruppo di persone che ha sfruttato una vulnerabilità del sistema. Questo ha portato il chatbot a pubblicare contenuti estremamente inappropriati, evidenziando una lacuna critica nei filtri.

Microsoft ha assunto la piena responsabilità per non aver previsto questa situazione e ha affermato che utilizzerà l’esperienza per rafforzare i sistemi di sicurezza e prevenire futuri exploit. L’azienda sta lavorando per correggere la vulnerabilità specifica evidenziata dall’attacco e trae insegnamento dalle esperienze accumulate in Cina, Giappone e Stati Uniti.

Guardando al futuro, Microsoft riconosce che le sfide nello sviluppo dell’intelligenza artificiale sono sia tecniche sia sociali. I sistemi di IA apprendono dall’interazione con le persone, positiva o negativa che sia, e gli abusi umani non possono essere completamente previsti senza un processo continuo di apprendimento e miglioramento.

L’impegno dichiarato dall’azienda è quello di continuare a sviluppare IA efficaci, affrontando ogni interazione pubblica con cautela. Microsoft punta a imparare passo dopo passo senza offendere nessuno, contribuendo a costruire un Internet che rifletta il meglio dell’umanità piuttosto che il peggio, applicando le lezioni apprese dall’esperienza con Tay.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…

Immagine del sitoCyber News
Allarme rosso in Italia! Migliaia di impianti senza password: un incubo a portata di click
Bajram Zeqiri - 05/02/2026

L’Italia si trova oggi davanti a una sfida digitale senza precedenti, dove la corsa all’innovazione non sempre coincide con una protezione adeguata delle infrastrutture. Pertanto la sicurezza dei sistemi connessi è diventata l’anello debole della…