Redazione RHC : 18 Febbraio 2023 16:25
Il nuovo servizio Bing Chat di Microsoft basato su AI, ancora in fase di test, è stato in prima pagina per tanti risultati irregolari.
Ma sembra essere giunta l’ora di metterci mano. Ad un certo punto negli ultimi due giorni, Microsoft ha notevolmente ridotto la capacità di Bing di minacciare i propri utenti, avere crolli esistenziali o dichiarare il proprio amore per loro.
Durante la prima settimana di Bing Chat, gli utenti hanno notato che Bing (noto anche con il suo nome in codice, Sydney) ha iniziato a comportarsi in modo “particolare” quando le conversazioni sono diventate molto lunghe.
Di conseguenza, Microsoft ha limitato gli utenti a 50 messaggi al giorno e cinque input per conversazione.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Inoltre, Bing Chat non ti dirà più come si sente e mai più parlerà di sé. Almeno così sembrerebbe.
In una dichiarazione condivisa con Ars Technica, un portavoce di Microsoft ha dichiarato: “Abbiamo aggiornato il servizio più volte in risposta al feedback degli utenti e, secondo il nostro blog, stiamo affrontando molte delle preoccupazioni sollevate nelle conversazioni di lunga durata. Di tutte le sessioni di chat finora, il 90% ha meno di 15 messaggi e meno dell’1% ha 55 o più messaggi.”
Mercoledì, Microsoft ha delineato ciò che ha appreso finora in un post sul blog, e in particolare ha affermato che Bing Chat “non è un sostituto o un sostituto del motore di ricerca“.
Nel frattempo, sul subreddit r/Bing vengono riportati i messaggi di dolore, negazione, rabbia, depressione e altro ancora.
C’è anche la tendenza a incolpare giornalisti come Kevin Roose, che giovedì ha scritto un importante articolo del New York Times sull’insolito “comportamento” di Bing.
L’intelligenza artificiale sta diventando sempre più un assistente per i programmatori, ma uno studio di Veracode ha dimostrato che la praticità comporta un rischio per la sicurezza. ...
Un annuncio apparso su un forum online, datato 26 luglio 2025, ha catturato la nostra attenzione: un utente di nome “Bucad” pubblicizza la vendita di un “iOS RCE Exploit 0day | Ze...
In relazione al nostro precedente articolo relativo ai bug di sicurezza rilevati sui dispositivi Lovesense (azienda leader leader nel settore dei dispositivi tecnologici per l’intimità), l...
“Ho bisogno di un sistema per gestire gli eventi della mia chiesa: volontari, iscrizioni, organizzazione degli eventi per la comunità”. Due settimane dopo aver scritto questo prompt...
Un utente con il nickname Tsar0Byte ha pubblicato su DarkForums, uno dei forum underground più noti nell’ambiente cybercrime, un annuncio scioccante: la presunta compromissione di dati sen...
Iscriviti alla newsletter settimanale di Red Hot Cyber per restare sempre aggiornato sulle ultime novità in cybersecurity e tecnologia digitale.
Copyright @ REDHOTCYBER Srl
PIVA 17898011006