Redazione RHC : 22 Marzo 2025 09:40
Il norvegese Arve Hjalmar Holmen è rimasto scioccato da un messaggio di ChatGPT in cui l’intelligenza artificiale lo accusava ingiustamente di un crimine ai danni dei suoi tre figli. Allo stesso tempo, il testo conteneva informazioni reali sul suo luogo di residenza e sulla sua famiglia, il che aumentava la drammaticità della situazione.
L’incidente è diventato oggetto di reclamo legale — L’organizzazione per i diritti umani noyb ha presentato un reclamo all’autorità norvegese per la protezione dei dati, sostenendo che OpenAI ha violato l’Articolo numero 5 del Regolamento generale sulla protezione dei dati (GDPR).
L’obiettivo principale del reclamo è che i dati personali, anche se utilizzati in un modello generativo, debbano essere affidabili. Noyb (European Centre for Digital Rights è un’organizzazione senza scopo di lucro con sede a Vienna, in Austria, fondata nel 2017 con un focus paneuropeo) ha notato che la legge non eccezioni per le reti neurali: un errore nei dati resta una violazione, indipendentemente dai limiti tecnologici. L’organizzazione ritiene che nel caso di Holman, OpenAI abbia mescolato elementi fittizi e autentici, il che aggrava la natura della violazione.
Prompt Engineering & Sicurezza: diventa l’esperto che guida l’AIVuoi dominare l’AI generativa e usarla in modo sicuro e professionale? Con il Corso Prompt Engineering: dalle basi alla cybersecurity, guidato da Luca Vinciguerra, data scientist ed esperto di sicurezza informatica, impari a creare prompt efficaci, ottimizzare i modelli linguistici e difenderti dai rischi legati all’intelligenza artificiale. Un percorso pratico e subito spendibile per distinguerti nel mondo del lavoro. Non restare indietro: investi oggi nelle tue competenze e porta il tuo profilo professionale a un nuovo livello. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]() Supporta RHC attraverso:
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il problema è aggravato dal fatto che l’azienda non offre agli utenti la possibilità di correggere le informazioni false. noyb ha già sottolineato in precedenza che ChatGPT, a differenza dei servizi tradizionali, non consente di modificare informazioni errate. OpenAI ha semplicemente aggiunto un avviso sui possibili errori nell’interfaccia del chatbot, il che, secondo gli avvocati, non esonera l’azienda da ogni responsabilità.
Gli avvocati stanno cercando di ottenere un’ordinanza dall’autorità di regolamentazione norvegese che potrebbe obbligare l’azienda a modificare i suoi algoritmi, limitare il trattamento dei dati personali di Holmen o imporre una multa. Tuttavia, OpenAI potrebbe avere qualche giustificazione: noyb ha riconosciuto che le versioni più recenti di ChatGPT connesse a Internet non generano più informazioni false su Holman. Ciò significa che il problema, almeno a livello di interfaccia utente, è stato risolto.
Tuttavia, il reclamo sottolinea che il collegamento alla conversazione originale è ancora disponibile, il che significa che le informazioni false potrebbero essere state memorizzate nei sistemi di OpenAI e persino utilizzate per addestrare ulteriormente il modello. Ciò, secondo noyb, indica una violazione in corso nonostante gli adeguamenti esterni. Gli avvocati sottolineano che rimuovere l’accesso alle informazioni false non significa interromperne l’elaborazione: le aziende non hanno il diritto di “nascondere” un errore senza eliminarlo dal sistema.
La decisione sul reclamo spetta alle autorità di regolamentazione norvegesi, ma la situazione dimostra già la crescente pressione sugli sviluppatori di intelligenza artificiale affinché elaborino i dati personali in modo accurato e legale. Lo sviluppo di modelli generativi richiede nuovi approcci alla responsabilità e al rispetto dei diritti umani: anche se la bugia proviene da una macchina, qualcuno deve esserne responsabile.
Avevamo già parlato della proposta di regolamento “ChatControl” quasi due anni fa, ma vista la roadmap che è in atto ci troviamo nell’imbarazzo di doverne parlare nuovamente. Sembra però un d...
ShinyHunters è un gruppo noto per il coinvolgimento in diversi attacchi informatici di alto profilo. Formatosi intorno al 2020, il gruppo ha guadagnato notorietà attraverso una serie di attacchi mir...
La notizia è semplice, la tecnologia no. Chat Control (CSAR) nasce per scovare CSAM e dinamiche di grooming dentro le piattaforme di messaggistica. La versione “modernizzata” rinuncia alla backdo...
A cura di Luca Stivali e Olivia Terragni. L’11 settembre 2025 è esploso mediaticamente, in modo massivo e massiccio, quello che può essere definito il più grande leak mai subito dal Great Fir...
Una violazione di dati senza precedenti ha colpito il Great Firewall of China (GFW), con oltre 500 GB di materiale riservato che è stato sottratto e reso pubblico in rete. Tra le informazioni comprom...