
Redazione RHC : 5 Maggio 2025 11:51
Dall’inizio di aprile, i social network LinkedIn e X sono stati inondati di immagini di utenti sotto forma di personaggi in miniatura. Ogni personaggio ha i suoi accessori personali, dal tappetino da yoga alle cuffie. Ciò comporta che migliaia di persone creino tali immagini utilizzando il nuovo generatore di immagini ChatGPT basato su GPT-4o. Non solo disegna nello stile dello Studio Ghibli, ma riesce anche a trasformare senza sforzo una foto in un avatar di bambola dettagliato. Tuttavia, dietro questo gioco innocuo si nasconde uno scambio poco ovvio: contenuti visivi in cambio di dati personali.
Per creare una statuina, basta caricare una foto. Ma insieme ad esso, nel sistema entrano non solo il volto, ma anche molti altri dati. Il file immagine può memorizzare informazioni sull’ora in cui è stata scattata la foto e sulla sua geolocalizzazione e, se la foto è scattata ad alta risoluzione, OpenAI può anche acquisire oggetti sullo sfondo, altre persone e persino elementi leggibili come badge. Questo è ciò che sottolinea Tom Vazdar dell’Open Institute of Technology, il quale sottolinea che tali dati forniti volontariamente costituiscono il materiale ideale per addestrare le reti neurali, in particolare quelle multimodali.
Oltre alle foto stesse, ChatGPT registra anche i parametri del dispositivo (tipo, sistema operativo, browser, identificatori univoci) e il comportamento dell’utente: con quali prompt lavora, come interagiscono con l’interfaccia, cosa modifica. Gli esperti sottolineano che non si tratta solo di dati biometrici, ma anche del contesto: il contenuto della stanza, gli abiti, gli oggetti sul tavolo. Ciò crea una serie impressionante di informazioni personalizzate. La paranoia digitale è il nuovo buon senso.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Sebbene OpenAI neghi che la tendenza che le Action Figure sia stata una mossa calcolata per raccogliere dati, l’azienda trae vantaggio dal fatto che gli utenti caricano volti nuovi e diversi, provenienti da diversi continenti, età ed etnie. In un contesto in cui è sempre più difficile per le aziende raccogliere dati apertamente, queste campagne funzionano meglio di qualsiasi funnel.
In base all’attuale politica sulla privacy di OpenAI, le immagini inviate tramite ChatGPT possono essere utilizzate per migliorare i modelli. Sebbene l’azienda sottolinei di non creare profili utente a scopo pubblicitario né di vendere informazioni personali, si riserva il diritto di elaborare i contenuti. Allo stesso tempo, la stessa OpenAI afferma di dare priorità alla privacy e che i modelli vengono addestrati su dati relativi al mondo, non sui singoli individui. Gli utenti dispongono di strumenti di controllo, tra cui l’esportazione, l’eliminazione e il divieto di utilizzo dei dati di formazione.
In Europa e nel Regno Unito esistono normative severe, tra cui il GDPR, in base alle quali il trattamento dei dati biometrici richiede un consenso separato. Ma come sottolinea l’avvocato Melissa Hall, una foto diventa biometrica solo se elaborata allo scopo di identificarla in modo univoco. Trasformare una foto in una versione cartoon non rientra certo in questa definizione. Negli Stati Uniti la regolamentazione non è uniforme: California e Illinois si distinguono per le misure più severe, ma non esiste una politica comune, il che crea un vuoto legislativo.
I sostenitori avvertono che, senza chiare restrizioni, una persona, una volta caricata nel sistema, potrebbe rimanervi per sempre, diventando parte di modelli futuri o venendo raggruppata con altri dati. Anche se la piattaforma promette di non utilizzare direttamente le foto, i meccanismi di cancellazione e controllo sono ancora troppo vaghi.
Gli esperti consigliano di abilitare il divieto di utilizzo dei dati per l’addestramento nelle impostazioni di ChatGPT, di disabilitare la cronologia della chat e di eliminare in anticipo i metadati dalle immagini. È meglio utilizzare filtri, foto distorte o avatar digitali. Bisogna prestare particolare attenzione allo sfondo: può rivelare più cose su di te di quanto sembri. E, cosa più importante, non caricare foto di altre persone senza il loro consenso: l’utente è responsabile del contenuto..
Redazione
I XV Giochi Nazionali della Cina si sono aperti con uno spettacolo che ha unito sport e tecnologia. Tra i protagonisti, robot capaci di suonare antichi strumenti di bronzo, sistemi di intelligenza art...

Un worm auto-propagante, denominato IndonesianFoods, è stato scoperto in npm. Genera nuovi pacchetti ogni sette secondi. Secondo Sonatype, il malware ha già creato oltre 100.000 pacchetti e questo n...

Molti di noi sono cresciuti con Hiroshi Shiba, di Jeeg robot d’acciaio che parlava con il defunto padre, il Professor Senjiro Shiba, scienziato e archeologo all’interno di un grande elaboratore. I...

Il traffico globale, come sanno i lettori di RHC, viaggia per la maggior parte sotto il mare. Secondo TeleGeography, istituto specializzato nelle telecomunicazioni, nel mondo sono attivi più di 530 s...

Un’analisi condotta negli ultimi mesi aveva evidenziato come l’evoluzione dei sistemi di intelligenza artificiale stesse raggiungendo un punto critico per la sicurezza informatica, con capacità r...