Redazione RHC : 22 Marzo 2025 09:40
Il norvegese Arve Hjalmar Holmen è rimasto scioccato da un messaggio di ChatGPT in cui l’intelligenza artificiale lo accusava ingiustamente di un crimine ai danni dei suoi tre figli. Allo stesso tempo, il testo conteneva informazioni reali sul suo luogo di residenza e sulla sua famiglia, il che aumentava la drammaticità della situazione.
L’incidente è diventato oggetto di reclamo legale — L’organizzazione per i diritti umani noyb ha presentato un reclamo all’autorità norvegese per la protezione dei dati, sostenendo che OpenAI ha violato l’Articolo numero 5 del Regolamento generale sulla protezione dei dati (GDPR).
L’obiettivo principale del reclamo è che i dati personali, anche se utilizzati in un modello generativo, debbano essere affidabili. Noyb (European Centre for Digital Rights è un’organizzazione senza scopo di lucro con sede a Vienna, in Austria, fondata nel 2017 con un focus paneuropeo) ha notato che la legge non eccezioni per le reti neurali: un errore nei dati resta una violazione, indipendentemente dai limiti tecnologici. L’organizzazione ritiene che nel caso di Holman, OpenAI abbia mescolato elementi fittizi e autentici, il che aggrava la natura della violazione.
![]() Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il problema è aggravato dal fatto che l’azienda non offre agli utenti la possibilità di correggere le informazioni false. noyb ha già sottolineato in precedenza che ChatGPT, a differenza dei servizi tradizionali, non consente di modificare informazioni errate. OpenAI ha semplicemente aggiunto un avviso sui possibili errori nell’interfaccia del chatbot, il che, secondo gli avvocati, non esonera l’azienda da ogni responsabilità.
Gli avvocati stanno cercando di ottenere un’ordinanza dall’autorità di regolamentazione norvegese che potrebbe obbligare l’azienda a modificare i suoi algoritmi, limitare il trattamento dei dati personali di Holmen o imporre una multa. Tuttavia, OpenAI potrebbe avere qualche giustificazione: noyb ha riconosciuto che le versioni più recenti di ChatGPT connesse a Internet non generano più informazioni false su Holman. Ciò significa che il problema, almeno a livello di interfaccia utente, è stato risolto.
Tuttavia, il reclamo sottolinea che il collegamento alla conversazione originale è ancora disponibile, il che significa che le informazioni false potrebbero essere state memorizzate nei sistemi di OpenAI e persino utilizzate per addestrare ulteriormente il modello. Ciò, secondo noyb, indica una violazione in corso nonostante gli adeguamenti esterni. Gli avvocati sottolineano che rimuovere l’accesso alle informazioni false non significa interromperne l’elaborazione: le aziende non hanno il diritto di “nascondere” un errore senza eliminarlo dal sistema.
La decisione sul reclamo spetta alle autorità di regolamentazione norvegesi, ma la situazione dimostra già la crescente pressione sugli sviluppatori di intelligenza artificiale affinché elaborino i dati personali in modo accurato e legale. Lo sviluppo di modelli generativi richiede nuovi approcci alla responsabilità e al rispetto dei diritti umani: anche se la bugia proviene da una macchina, qualcuno deve esserne responsabile.
Sarebbe fantastico avere un agente AI capace di analizzare automaticamente il codice dei nostri progetti, individuare i bug di sicurezza, generare la correzione e pubblicarla subito in produzione. Epp...
La disillusione nei confronti degli incontri online spinge sempre più le donne a cercare intimità emotiva nel mondo virtuale. Sempre più donne si rivolgono all’intelligenza artificiale, ovvero ai...
Una falla critica di 13 anni, nota come RediShell, presente in Redis, permette l’esecuzione di codice remoto (RCE) e offre agli aggressori la possibilità di acquisire il pieno controllo del sistema...
Se n’è parlato molto poco di questo avvenimento, che personalmente reputo strategicamente molto importante e segno di un forte cambiamento nella gestione delle vulnerabilità non documentate in Ita...
Autore: Inva Malaj e Raffaela Crisci 04/10/2025 – Darkforums.st: “303” Rivendica Data Breach di 9 GB su Apple.com Nelle prime ore del 4 ottobre 2025, sul forum underground Darkforums è comparsa...