
Redazione RHC : 18 Febbraio 2023 16:25
Il nuovo servizio Bing Chat di Microsoft basato su AI, ancora in fase di test, è stato in prima pagina per tanti risultati irregolari.
Ma sembra essere giunta l’ora di metterci mano. Ad un certo punto negli ultimi due giorni, Microsoft ha notevolmente ridotto la capacità di Bing di minacciare i propri utenti, avere crolli esistenziali o dichiarare il proprio amore per loro.
Durante la prima settimana di Bing Chat, gli utenti hanno notato che Bing (noto anche con il suo nome in codice, Sydney) ha iniziato a comportarsi in modo “particolare” quando le conversazioni sono diventate molto lunghe.
CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHC Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Di conseguenza, Microsoft ha limitato gli utenti a 50 messaggi al giorno e cinque input per conversazione.
Inoltre, Bing Chat non ti dirà più come si sente e mai più parlerà di sé. Almeno così sembrerebbe.
In una dichiarazione condivisa con Ars Technica, un portavoce di Microsoft ha dichiarato: “Abbiamo aggiornato il servizio più volte in risposta al feedback degli utenti e, secondo il nostro blog, stiamo affrontando molte delle preoccupazioni sollevate nelle conversazioni di lunga durata. Di tutte le sessioni di chat finora, il 90% ha meno di 15 messaggi e meno dell’1% ha 55 o più messaggi.”
Mercoledì, Microsoft ha delineato ciò che ha appreso finora in un post sul blog, e in particolare ha affermato che Bing Chat “non è un sostituto o un sostituto del motore di ricerca“.
Nel frattempo, sul subreddit r/Bing vengono riportati i messaggi di dolore, negazione, rabbia, depressione e altro ancora.
C’è anche la tendenza a incolpare giornalisti come Kevin Roose, che giovedì ha scritto un importante articolo del New York Times sull’insolito “comportamento” di Bing.
Redazione
Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...