Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
970x20 Itcentric
LECS 320x100 1
ChatGPT è stato Hackerato? Va In Crash All’inserimento Della Parola David Mayer!

ChatGPT è stato Hackerato? Va In Crash All’inserimento Della Parola David Mayer!

2 Dicembre 2024 11:01

Un membro di Red Hot Cyber, Agostino pellegrino, ci porta all’attenzione un comportamento molto strano di Chat-GPT, il modello linguistico di OpenAI diffuso anche su Reddit recentemente. L’interfaccia va costantemente in crash quando viene inserito un nome specifico di una persona all’interno del prompt.

Tale crash si verifica ogni volta che viene digitato il nome di “David Mayer”, indipendentemente dal tipo di prompt utilizzato. Questo problema potrebbe far pensare a dei bug dell’interfaccia o a segnali di compromissione del LLM.

Il comportamento anomalo riscontrato

Agostino ha segnalato che una volta inserito il nome di una persona in una richiesta a ChatGPT, il sistema si blocca o va in crash. Questo malfunzionamento non sembra essere limitato a singoli utenti, ma si presenta a chiunque tenti di utilizzare il modello. Questo avviene indipendentemente dal contesto o dalla natura della domanda.

Rispetto a quanto riportato all’interno di Reddit, Agostino pellegrino a cercato di farsi dire direttamente da Chat-GPT quale fosse il problema e Chat-GPT gli ha risposto specificando precisamente a quale “Devis Mayer” si stava riferendo come da prompt in calce.

I test condotti su più prompt e su diversi dispositivi confermano che il problema è replicabile, suggerendo che non si tratti di un errore casuale. Potrebbe trattarsi di un difetto intrinseco nel sistema ed avviene anche con particolari “escape”.

Cosa Potrebbe Essere Accaduto?

Ci potrebbero essere svariate motivazioni relativamente a questo comportamento anomalo che possono essere:

  1. Hacking del modello: Attività malevola che ha fornito input al modello per evitare di elaborare richieste per specifiche di testo. Potrebbe trattarsi di un attacco di avvelenamento dei dati e dei dataset.
  2. Filtro o Censura: Un’altra possibilità è che il nome in questione venga erroneamente trattato come un termine sensibile o inappropriato. Questi filtri sono progettati per prevenire l’uso improprio del sistema, ma talvolta possono generare risultati indesiderati.
  3. Problemi Legati al Training del Modello: Un’altra ipotesi è che il modello sia stato addestrato su dati che includono problematiche relative a quel nome specifico. In tal caso, il modello potrebbe incorrere in conflitti durante la generazione di risposte, causando crash o interruzioni. Potrebbe trattarsi di un risultato di un training impreciso, dove la presenza di certe informazioni porta a un comportamento anomalo.
  4. Problema con le Risorse di Sistema: In alcuni casi, l’inserimento di determinati input può comportare un utilizzo eccessivo delle risorse di calcolo, come la memoria o la CPU. Se il nome richiama una serie complessa di calcoli o riferimenti, potrebbe essere la causa del crash. Questo potrebbe essere dovuto a un problema di ottimizzazione del codice che non gestisce correttamente grandi quantità di dati associati a determinati input.
  5. Infiltrazione di Malicious Input: Sebbene meno probabile, c’è anche la possibilità che il nome inserito sia stato utilizzato per testare vulnerabilità nel sistema da parte di attaccanti. Un nome specifico potrebbe essere parte di un tentativo di exploit che mira a far fallire il sistema, anche se al momento non ci sono prove concrete a supporto di questa teoria.

Conclusioni

Il malfunzionamento rilevato con ChatGPT, legato all’inserimento di un nome specifico, solleva diverse ipotesi riguardo le cause di questo comportamento. Sebbene non sia chiaro se si tratti di un bug tecnico, un filtro mal configurato o un problema legato al training del modello, è evidente che il problema merita attenzione. OpenAI dovrà approfondire l’indagine su questo caso per garantire che il modello funzioni correttamente senza compromettere l’affidabilità e la sicurezza del sistema. Finché la causa non sarà chiarita, gli utenti potrebbero trovarsi di fronte a comportamenti imprevisti, e l’esperienza con ChatGPT potrebbe risentirne.

Chi è David Mayer?

Andando a ricercare su Wikipedia, David Mayer è un membro della famiglia Rothschild , il più giovane dei tre figli di Victoria Lou Schott (1949 – 18 gennaio 2021) e Sir Evelyn de Rothschild (1931–2022) della famiglia di banchieri Rothschild d’Inghilterra .

Il suo secondo nome “Mayer” deriva dal nome del fondatore dell’impero bancario della famiglia Rothschild , Mayer Amschel Rothschild . Il più giovane erede della fortuna bancaria della sua famiglia, Rothschild è nato nel 1978 a Londra, Inghilterra. Sua madre era americana, figlia di Marcia Lou (nata Whitney) e dello sviluppatore immobiliare Lewis M. Schott. È il fratello minore di Anthony de Rothschild e Jessica de Rothschild.

Da adolescente, Rothschild era un saltatore di cavalli di alto livello nella squadra juniores britannica. In seguito abbandonò lo sport per proseguire gli studi, affermando in un’intervista al The New Yorker “Ho capito che nella vita c’era di più che passare ore e ore e ore su un cavallo”. Dopo aver lasciato la Harrow School nel 1996, frequentò l’Oxford Brookes, dove ottenne una laurea triennale (con lode) in Scienze politiche e Sistemi informativi . Nel 2002, Rothschild studiò al College of Naturopathic Medicine di Londra, dove ricevette un diploma avanzato in Medicina naturale, ND.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Luca Vinciguerra 300x300
Machine Learning Engineer specializzato nel Natural Language Processing. Appassionato di Intelligenza Artificiale, Coding e tecnologia in generale. Aspetta l'avvento di Skynet.
Aree di competenza: Artificial Intelligence Engineer, Machine Learning & Deep Learning Specialist, Python Developer

Articoli in evidenza

Immagine del sitoCybercrime
Colpo al cuore del cybercrime: RAMP messo offline. Il “tempio” del ransomware cade!
Bajram Zeqiri - 28/01/2026

Il forum RAMP (Russian Anonymous Marketplace), uno dei principali punti di riferimento del cybercrime underground internazionale, è stato ufficialmente chiuso e sequestrato dalle forze dell’ordine statunitensi. La notizia è emersa dopo che il dominio associato…

Immagine del sitoDiritti
La privacy è morta? No, ma è in coma! Cosa celebriamo davvero oggi 28 gennaio
Silvia Felici - 28/01/2026

Oggi è il 28 gennaio e, come ogni anno da un bel po’ di tempo a questa parte, ci ritroviamo a celebrare la Giornata europea della protezione dei dati. È una roba che nasce nel…

Immagine del sitoCyber News
OpenSSL: 12 bug di sicurezza rilevati tra i quali una vulnerabilità critica
Bajram Zeqiri - 28/01/2026

Un aggiornamento di sicurezza è stato rilasciato dai responsabili della manutenzione di OpenSSL, la libreria crittografica, al fine di risolvere circa una dozzina di vulnerabilità che includono, tra gli altri, errori logici e corruzioni di…

Immagine del sitoCyberpolitica
Autonomia Digitale: La Francia dice addio a Teams e Zoom dal 2027
Silvia Felici - 28/01/2026

Non è la prima iniziativa che spunta su questo fronte, ultimamente. Anzi, se ne sentono diverse, una dopo l’altra. Ed è quasi inevitabile: autonomia tecnologica e sicurezza nazionale stanno diventando un terreno sempre più battuto,…

Immagine del sitoCultura
Il ransomware non blocca i server, blocca il credito. Il lato finanziario della cybersecurity
Antonio Piovesan - 27/01/2026

C’è questa idea sbagliata, un po’ romantica volendo, per cui il ransomware è “roba da IT”: qualche server in crisi, due notti in bianco, poi si riparte e fine… La realtà, soprattutto per un’azienda quotata…