Alessia Tomaselli : 20 Febbraio 2023 07:52
Le conversazioni troppo lunghe confondono Bing, quindi Microsoft le ha disattivate.
Microsoft ha annunciato un cambiamento radicale del suo chatbot Bing AI, svelato per la prima volta al mondo la scorsa settimana.
A partire dal 18 febbraio, gli utenti che hanno accesso all’anteprima di Bing non potranno più chattare liberamente con la sua intelligenza artificiale: le conversazioni saranno limitate a soli 5 messaggi per sessione e 50 domande al giorno.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
L’azienda afferma di aver introdotto questi limiti perché i test hanno riscontrato che il chatbot può confondersi facilmente durante le conversazioni più lunghe, in quanto fatica a tenere il passo con tutti i contesti e i dati che gli vengono presentati. Come risultato spesso l’AI bot va fuori tema e in alcuni casi diventa addirittura scortese o comincia a rispondere in modo strano.
Per evitare che il chatbot cominci a rimproverare gli utenti, in modo addirittura acerbo e vibrato, Bing è arrivato a questa soluzione.
Ora, quando l’utente tenta di continuare una conversazione dopo il 5° messaggio inviato in chat, l’intelligenza artificiale di Bing chiederà all’utente di resettare la conversazione e ricominciare. Dopo il 50° turno avvenuto durante lo stesso giorno, il bot di chat smetterà di funzionare completamente e l’utente sarà invitato a tornare il giorno successivo.
“I nostri dati hanno dimostrato che la stragrande maggioranza delle persone trova le risposte che cerca entro 5 messaggi e che solo l’1% delle conversazioni in chat ha più di 50 messaggi. Dopo che una sessione di chat raggiunge i 5 turni, alle persone verrà richiesto di iniziare un nuovo argomento. Alla fine di ogni sessione di chat, il contesto deve essere cancellato per evitare che l’intelligenza artificiale si confonda. Basta fare clic sull’icona della scopa a sinistra della casella di ricerca per ricominciare da capo. In base ai feedback che riceveremo, valuteremo la possibilità di ampliare i limiti delle sessioni di chat”.
Si tratta di un cambiamento importante, che mette in evidenza la natura molto precoce dei chatbot AI alimentati da grandi modelli di linguaggio naturale.
Detto questo, è raro che ci siano persone che utilizzano Bing AI più di un paio di volte alla settimana, e quasi nessuno lo utilizza più volte al giorno, quindi questo cambiamento probabilmente non sarà un grosso problema per la maggior parte delle persone.
Domani celebreremo uno degli elementi più iconici – e al tempo stesso vulnerabili – della nostra vita digitale: la password. Da semplice chiave d’accesso inventata negli anni...
Ci sono luoghi nel web dove la normalità cede il passo all’illecito, dove l’apparenza di un marketplace moderno e funzionale si trasforma in una vetrina globale per ogni tipo di rea...
Le backdoor come sappiamo sono ovunque e qualora presenti possono essere utilizzate sia da chi le ha richieste ma anche a vantaggio di chi le ha scoperte e questo potrebbe essere un caso emblematico s...
Il 25 febbraio 2025 WindTre ha rilevato un accesso non autorizzato ai sistemi informatici utilizzati dai propri rivenditori. L’intrusione, riconosciuta come un’azione malevola, è st...
Ancora non sono chiari i motivi che hanno causato un grave Blackout in Spagna e Portogallo nelle ultime ore. Vaste aree sono rimaste senza energia elettrica, scatenando un’ondata di speculazion...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006