
Redazione RHC : 22 Marzo 2025 09:40
Il norvegese Arve Hjalmar Holmen è rimasto scioccato da un messaggio di ChatGPT in cui l’intelligenza artificiale lo accusava ingiustamente di un crimine ai danni dei suoi tre figli. Allo stesso tempo, il testo conteneva informazioni reali sul suo luogo di residenza e sulla sua famiglia, il che aumentava la drammaticità della situazione.
L’incidente è diventato oggetto di reclamo legale — L’organizzazione per i diritti umani noyb ha presentato un reclamo all’autorità norvegese per la protezione dei dati, sostenendo che OpenAI ha violato l’Articolo numero 5 del Regolamento generale sulla protezione dei dati (GDPR).
L’obiettivo principale del reclamo è che i dati personali, anche se utilizzati in un modello generativo, debbano essere affidabili. Noyb (European Centre for Digital Rights è un’organizzazione senza scopo di lucro con sede a Vienna, in Austria, fondata nel 2017 con un focus paneuropeo) ha notato che la legge non eccezioni per le reti neurali: un errore nei dati resta una violazione, indipendentemente dai limiti tecnologici. L’organizzazione ritiene che nel caso di Holman, OpenAI abbia mescolato elementi fittizi e autentici, il che aggrava la natura della violazione.
CVE Enrichment Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.
Cosa trovi nel servizio: ✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor. ✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV). ✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia. ✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il problema è aggravato dal fatto che l’azienda non offre agli utenti la possibilità di correggere le informazioni false. noyb ha già sottolineato in precedenza che ChatGPT, a differenza dei servizi tradizionali, non consente di modificare informazioni errate. OpenAI ha semplicemente aggiunto un avviso sui possibili errori nell’interfaccia del chatbot, il che, secondo gli avvocati, non esonera l’azienda da ogni responsabilità.
Gli avvocati stanno cercando di ottenere un’ordinanza dall’autorità di regolamentazione norvegese che potrebbe obbligare l’azienda a modificare i suoi algoritmi, limitare il trattamento dei dati personali di Holmen o imporre una multa. Tuttavia, OpenAI potrebbe avere qualche giustificazione: noyb ha riconosciuto che le versioni più recenti di ChatGPT connesse a Internet non generano più informazioni false su Holman. Ciò significa che il problema, almeno a livello di interfaccia utente, è stato risolto.
Tuttavia, il reclamo sottolinea che il collegamento alla conversazione originale è ancora disponibile, il che significa che le informazioni false potrebbero essere state memorizzate nei sistemi di OpenAI e persino utilizzate per addestrare ulteriormente il modello. Ciò, secondo noyb, indica una violazione in corso nonostante gli adeguamenti esterni. Gli avvocati sottolineano che rimuovere l’accesso alle informazioni false non significa interromperne l’elaborazione: le aziende non hanno il diritto di “nascondere” un errore senza eliminarlo dal sistema.
La decisione sul reclamo spetta alle autorità di regolamentazione norvegesi, ma la situazione dimostra già la crescente pressione sugli sviluppatori di intelligenza artificiale affinché elaborino i dati personali in modo accurato e legale. Lo sviluppo di modelli generativi richiede nuovi approcci alla responsabilità e al rispetto dei diritti umani: anche se la bugia proviene da una macchina, qualcuno deve esserne responsabile.
Redazione
Piaccia o meno, l’invio di un’email a un destinatario errato costituisce una violazione di dati personali secondo il GDPR. Ovviamente, questo vale se l’email contiene dati personali o se altrime...

Nel gergo dei forum underground e dei marketplace del cybercrime, il termine combo indica un insieme di credenziali rubate composto da coppie del tipo email:password. Non si tratta di semplici elenchi...

Sulla veranda di una vecchia baita in Colorado, Mark Gubrud, 67 anni, osserva distrattamente il crepuscolo in lontananza, con il telefono accanto a sé, lo schermo ancora acceso su un’app di notizie...

Anthropic ha rilasciato Claude Opus 4.5 , il suo nuovo modello di punta, che, secondo l’azienda, è la versione più potente finora rilasciata e si posiziona al vertice della categoria nella program...

Il lavoro da remoto, ha dato libertà ai dipendenti, ma con essa è arrivata anche la sorveglianza digitale. Ne abbiamo parlato qualche tempo fa in un articolo riportando che tali strumenti di monitor...