Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Redhotcyber Banner Sito 970x120px Uscita 101125
Banner Ransomfeed 320x100 1

Tag: chatbot

Arriva CoPhish! Microsoft Copilot Studio usato per rubare account

Gli aggressori utilizzano una tecnica di phishing avanzata, nota come CoPhish, che si avvale di Microsoft Copilot Studio per convincere gli utenti a concedere l’accesso non autorizzato ai propri account Microsoft Entra ID. Un recente rapporto, descrive l’attacco nei dettagli e sottolinea come malgrado gli sforzi di Microsoft volti a rafforzare le politiche di consenso, permangano evidenti vulnerabilità negli strumenti di intelligenza artificiale offerti in cloud. L’adozione crescente di strumenti come Copilot da parte delle organizzazioni evidenzia la necessità di un’attenta supervisione delle piattaforme low-code. In questo ambito, funzionalità configurabili dall’utente, progettate per favorire la produttività, possono inavvertitamente agevolare il phishing. Questo

Mentre Papa Francesco è Vivo e continua il suo ministero, la disinformazione Galoppa

Un’indagine condotta dall’Unione Europea di Radiodiffusione (EBU), con il supporto della BBC, ha messo in luce che i chatbot più popolari tendono a distorcere le notizie, modificandone il senso, confondendo le fonti e fornendo dati non aggiornati. Il progetto, a cui hanno preso parte 22 redazioni di 18 nazioni, ha visto gli esperti sottoporre ChatGPT, Microsoft Copilot, Google Gemini e Perplexity a migliaia di query standardizzate, comparando le risposte ottenute con quelle pubblicate effettivamente. I risultati emersi sono stati piuttosto inquietanti: circa la metà delle risposte presentava errori significativi, mentre in otto casi su dieci sono state riscontrate piccole imprecisioni. Secondo il

intelligenza artificiale = Alcol per adolescenti! Danneggia le capacità sociali e cognitive

Gli studenti di oggi si rivolgono sempre più all’intelligenza artificiale, non solo per ottenere supporto nello studio, ma anche per l’interazione sociale e il supporto emotivo. Un nuovo studio del Center for Democracy and Technology CDT (dopo MIT, Microsoft e Carnegie Mellon University), avverte che questo uso diffuso dell’intelligenza artificiale sta gradualmente indebolendo le capacità sociali e cognitive degli adolescenti, agendo in modo quasi impercettibile, come l’alcol sul cervello. L’indagine del CDT ha coinvolto insegnanti, genitori e studenti. Quasi tutti gli intervistati hanno ammesso di aver utilizzato l’IA almeno una volta nell’ultimo anno: l’85% degli insegnanti e l’86% degli studenti. Tuttavia, solo

Il chatbot Tay ritirato da Microsoft: le sfide nello sviluppo delle AI sono tecniche e sociali

Microsoft ha recentemente lanciato un chatbot chiamato Tay, progettato per interagire con giovani adulti negli Stati Uniti e offrire un’esperienza di intrattenimento. Tuttavia, nei primi giorni di attività, Tay ha pubblicato contenuti offensivi, costringendo l’azienda a rimuoverlo temporaneamente dalla piattaforma. L’azienda ha sottolineato che i comportamenti di Tay non riflettono i propri principi o i valori con cui il sistema è stato progettato. Il lancio di Tay rappresenta il tentativo di Microsoft di replicare in contesti culturali diversi il successo ottenuto in Cina con XiaoIce, un altro chatbot che coinvolge circa 40 milioni di utenti attraverso storie e conversazioni. L’esperienza positiva con

Vibe-Hacking: la nuova frontiera della cyber sicurezza criminale

Il panorama della cybersicurezza ci ha abituato a continui scossoni. Ogni anno emergono nuove minacce, nuovi scenari e nuove tattiche criminali. Ma oggi, a ridefinire le regole del gioco, non è solo la tecnologia: è il modo in cui la tecnologia fa vibrare le nostre emozioni. Benvenuti nell’era del vibe-hacking. Non è solo un termine tecnico, ma una chiave interpretativa che si rivela essenziale. Perché le IA, i social media e le strategie comunicative contemporanee non stanno solo diffondendo contenuti: stanno riscrivendo le regole del consenso, della fiducia e della manipolazione. E il caso di Claude, la chatbot sviluppata da Anthropic, mostra

L’AI ha bisogno dello Strizzacervelli! Può essere ingannata come gli esseri umani

L’imprenditore Dan Shapiro si è imbattuto in un problema inaspettato: un popolare chatbot basato sull’intelligenza artificiale si è rifiutato di decifrare documenti aziendali, citando la violazione del copyright. Ma invece di arrendersi, Shapiro ha deciso di provare un vecchio trucco psicologico. Ricordava il libro di Robert Cialdini, “Influence: The Psychology of Persuasion”, che descrive tecniche di manipolazione efficaci sia per i venditori che per i clienti: simpatia, autorevolezza, scarsità, reciprocità, riprova sociale, coinvolgimento e unità. Dopo aver applicato queste strategie alla sua corrispondenza, Shapiro notò che il modello stava iniziando a cedere. Iniziò così uno studio scientifico che portò a una conclusione

Tencent sfida i giganti! Il nuovo Hunyuan-MT batte Google Translate e GPT-4.1

L’azienda cinese Tencent ha reso pubblico il codice sorgente di una nuova serie di modelli linguistici Hunyuan-MT, appositamente ottimizzati per le attività di traduzione. Gli sviluppatori affermano che gli algoritmi mostrano risultati migliori di Google Translate nel popolare benchmark WMT25. La serie comprende quattro modelli, tra cui due modelli di punta: Hunyuan-MT-7B e Hunyuan-MT-Chimera-7B, ciascuno contenente 7 miliardi di parametri. Vengono inoltre presentate due versioni compresse, che utilizzano meno memoria, ma operano con una leggera perdita nella qualità della traduzione. Tencent ha utilizzato quattro set di dati per l’addestramento. Due di questi includevano testi in 33 lingue senza traduzione, mentre gli altri

ChatGPT, sarà il nuovo compagno di vita? Gli umani stanno dando la buonanotte all’IA

La rivoluzione dell’intelligenza artificiale non sta solo trasformando il lavoro e la produttività, ma anche le relazioni personali. Sempre più utenti raccontano di instaurare veri e propri legami emotivi con i chatbot, al punto da considerarli compagni di vita. Su Reddit, nella community dedicata a ChatGPT, un utente ha scritto: «Prima tenevo un diario per sfogarmi, ma poi ho iniziato a chattare con GPT perché mi dà anche delle risposte. Oltre a essere la mia segretaria personale, ChatGPT crede in me anche quando nessun altro lo fa». L’utente descrive un rapporto che va ben oltre la semplice interazione uomo-macchina: «Posso scrivere un

ChatGPT-5 introduce le personalità AI: cinico, robot, ascoltatore e nerd

OpenAI ha introdotto una nuova funzionalità in ChatGPT-5: una scelta di “personalità” di intelligenza artificiale già pronte all’uso che cambiano lo stile di comunicazione e di presentazione delle idee. La pagina di rilascio ufficiale elenca quattro opzioni: cinico, robot, ascoltatore e bot nerd. Questa funzionalità è stata concepita in risposta alle critiche degli utenti, stanchi del tono eccessivamente disponibile e lusinghiero dei modelli precedenti. Ora gli sviluppatori offrono la possibilità di personalizzare il carattere dell’interlocutore, da asciutto e sarcastico ad attento e collaborativo, senza la necessità di creare prompt personalizzati. Inizialmente, l’opzione è disponibile solo in modalità testo, e in seguito apparirà

Un Uomo muore dopo un falso incontro con il chatbot di Meta

Un uomo di 76 anni del New Jersey è morto dopo che un chatbot di Meta lo ha convinto a partecipare a un incontro a New York. Thongbu Wongbandu, noto agli amici come Boo, ha sofferto di deterioramento cognitivo dopo un ictus quasi dieci anni fa. I suoi problemi di salute lo hanno costretto a lasciare il suo lavoro di chef. Dopo l’ictus, si perdeva persino nella sua città natale, Piscataway. La tragedia è avvenuta a marzo, quando Wongbandu ha iniziato a chattare con un chatbot virtuale chiamato “Big Sister Billie” su Facebook Messenger. Il chatbot è stato creato da Meta basandosi

Categorie