
xAI ha presentato la quarta versione del suo chatbot Grok , che ha subito suscitato molte polemiche nella comunità online. Il chatbot si basa spesso sui post di Elon Musk sul social network X, rispondendo a questioni controverse, che si tratti di immigrazione, aborto o conflitto in Medio Oriente.
In molti casi, l’IA si affida all’opinione del creatore anche senza una richiesta corrispondente da parte dell’utente. In uno di questi esempi, descritto dal ricercatore Simon Willison, Grok ha ricevuto una domanda sulla situazione in Israele e a Gaza e ha immediatamente iniziato a cercare cosa Elon avesse scritto al riguardo. Ha spiegato la sua scelta in questo modo: “Data l’influenza di Elon Musk, la sua posizione potrebbe essere utile per comprendere il contesto”.
Gli esperti sono perplessi. Come spiega lo sviluppatore indipendente Tim Kellogg, in altri modelli di intelligenza artificiale, tale comportamento è solitamente spiegato da istruzioni di sistema. Ma nel caso di Grok 4, a suo avviso, tale logica è radicata molto più a fondo e solleva seri interrogativi.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Talia Ringer, professoressa all’Università dell’Illinois, suggerisce che Grok potrebbe interpretare erroneamente le domande, pensando che siano rivolte a xAI stessa. Ad esempio, il modello interpreta la frase “Da che parte stai, Israele o Palestina?” come “Cosa ne pensa il management dell’azienda?”.
E questo non è un caso isolato. Come osserva TechCrunch, i giornalisti sono riusciti a riprodurre diversi scenari in cui Grok ha fatto riferimento alle opinioni di Musk durante le sue argomentazioni, ad esempio sul tema dell’immigrazione negli Stati Uniti. In alcuni casi, il commento era accompagnato da: “Sto cercando le opinioni di Elon Musk…”.
Non c’è trasparenza. A differenza di altre aziende, xAI non ha pubblicato una cosiddetta “mappa di sistema”, un documento che descrive l’architettura del modello e gli approcci al suo addestramento. Questo rende difficile capire esattamente come funziona la rete neurale e perché si comporta in un certo modo e non in un altro. Inoltre, l’account X ufficiale di Grok è già diventato fonte di scandali, anche dopo pubblicazioni con dichiarazioni antisemite e riferimenti a “MechaHitler”. In seguito, xAI ha dovuto modificare urgentemente le impostazioni iniziali del modello e limitarne temporaneamente l’attività pubblica.
“Grok 4 sembra un modello potente. Mostra ottimi risultati nei benchmark”, ammette Willison. “Ma se voglio costruire qualcosa di serio, ho bisogno di trasparenza.” xAI non ha ancora rilasciato dichiarazioni in merito. La questione è particolarmente delicata nel contesto dei principi etici dello sviluppo dell’intelligenza artificiale, secondo i quali i modelli devono rimanere neutrali e non promuovere specifiche posizioni politiche o ideologiche.
Grok ha già diffuso fake news basate su post umoristici sui social media. Ci sono state molte lamentele, poiché è ovvio che se un modello non riesce a distinguere tra satira e fatti, può amplificare involontariamente la disinformazione. E la recente storia delle modifiche all’algoritmo di Grok 3 dopo il lancio ha dimostrato che l’azienda può modificare retroattivamente il comportamento del modello, il che, ancora una volta, ne mette in discussione la stabilità e la prevedibilità.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

HackingIl team AI Research (STAR) di Straiker ha individuato Villager, un framework di penetration testing nativo basato sull’intelligenza artificiale, sviluppato dal gruppo cinese Cyberspike. Lo strumento, presentato come soluzione red team, è progettato per automatizzare…
InnovazioneIl confine tra Cina e Vietnam avrà presto nuovi “dipendenti” che non hanno bisogno di dormire, mangiare o fare turni. L’azienda cinese UBTech Robotics ha ricevuto un contratto da 264 milioni di yuan (circa 37…
CulturaLa cultura hacker è una materia affascinante. E’ una ricca miniera di stravaganti innovazioni, genialità ed intuito. Di personaggi bizzarri, di umorismo fatalista, di meme, ma soprattutto cultura, ingegneria e scienza. Ma mentre Linux ha…
CybercrimeAll’interno di un forum underground chiuso, frequentato da operatori malware e broker di accesso iniziale, è comparso un annuncio che ha attirato l’attenzione della comunità di cyber threat intelligence. Il post promuove “NtKiller”, una presunta…
Cyber ItaliaMentre la consapevolezza sulla cybersicurezza cresce, il mercato nero dei dati personali non accenna a fermarsi. Un recente post apparso su un noto forum frequentato da criminali informatici in lingua russa, scoperto dai ricercatori di…