
Redazione RHC : 5 Maggio 2025 11:51
Dall’inizio di aprile, i social network LinkedIn e X sono stati inondati di immagini di utenti sotto forma di personaggi in miniatura. Ogni personaggio ha i suoi accessori personali, dal tappetino da yoga alle cuffie. Ciò comporta che migliaia di persone creino tali immagini utilizzando il nuovo generatore di immagini ChatGPT basato su GPT-4o. Non solo disegna nello stile dello Studio Ghibli, ma riesce anche a trasformare senza sforzo una foto in un avatar di bambola dettagliato. Tuttavia, dietro questo gioco innocuo si nasconde uno scambio poco ovvio: contenuti visivi in cambio di dati personali.
Per creare una statuina, basta caricare una foto. Ma insieme ad esso, nel sistema entrano non solo il volto, ma anche molti altri dati. Il file immagine può memorizzare informazioni sull’ora in cui è stata scattata la foto e sulla sua geolocalizzazione e, se la foto è scattata ad alta risoluzione, OpenAI può anche acquisire oggetti sullo sfondo, altre persone e persino elementi leggibili come badge. Questo è ciò che sottolinea Tom Vazdar dell’Open Institute of Technology, il quale sottolinea che tali dati forniti volontariamente costituiscono il materiale ideale per addestrare le reti neurali, in particolare quelle multimodali.
Oltre alle foto stesse, ChatGPT registra anche i parametri del dispositivo (tipo, sistema operativo, browser, identificatori univoci) e il comportamento dell’utente: con quali prompt lavora, come interagiscono con l’interfaccia, cosa modifica. Gli esperti sottolineano che non si tratta solo di dati biometrici, ma anche del contesto: il contenuto della stanza, gli abiti, gli oggetti sul tavolo. Ciò crea una serie impressionante di informazioni personalizzate. La paranoia digitale è il nuovo buon senso.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Sebbene OpenAI neghi che la tendenza che le Action Figure sia stata una mossa calcolata per raccogliere dati, l’azienda trae vantaggio dal fatto che gli utenti caricano volti nuovi e diversi, provenienti da diversi continenti, età ed etnie. In un contesto in cui è sempre più difficile per le aziende raccogliere dati apertamente, queste campagne funzionano meglio di qualsiasi funnel.
In base all’attuale politica sulla privacy di OpenAI, le immagini inviate tramite ChatGPT possono essere utilizzate per migliorare i modelli. Sebbene l’azienda sottolinei di non creare profili utente a scopo pubblicitario né di vendere informazioni personali, si riserva il diritto di elaborare i contenuti. Allo stesso tempo, la stessa OpenAI afferma di dare priorità alla privacy e che i modelli vengono addestrati su dati relativi al mondo, non sui singoli individui. Gli utenti dispongono di strumenti di controllo, tra cui l’esportazione, l’eliminazione e il divieto di utilizzo dei dati di formazione.
In Europa e nel Regno Unito esistono normative severe, tra cui il GDPR, in base alle quali il trattamento dei dati biometrici richiede un consenso separato. Ma come sottolinea l’avvocato Melissa Hall, una foto diventa biometrica solo se elaborata allo scopo di identificarla in modo univoco. Trasformare una foto in una versione cartoon non rientra certo in questa definizione. Negli Stati Uniti la regolamentazione non è uniforme: California e Illinois si distinguono per le misure più severe, ma non esiste una politica comune, il che crea un vuoto legislativo.
I sostenitori avvertono che, senza chiare restrizioni, una persona, una volta caricata nel sistema, potrebbe rimanervi per sempre, diventando parte di modelli futuri o venendo raggruppata con altri dati. Anche se la piattaforma promette di non utilizzare direttamente le foto, i meccanismi di cancellazione e controllo sono ancora troppo vaghi.
Gli esperti consigliano di abilitare il divieto di utilizzo dei dati per l’addestramento nelle impostazioni di ChatGPT, di disabilitare la cronologia della chat e di eliminare in anticipo i metadati dalle immagini. È meglio utilizzare filtri, foto distorte o avatar digitali. Bisogna prestare particolare attenzione allo sfondo: può rivelare più cose su di te di quanto sembri. E, cosa più importante, non caricare foto di altre persone senza il loro consenso: l’utente è responsabile del contenuto..
Redazione
A seguito della scoperta di exploit attivi, la Cybersecurity and Infrastructure Security Agency (CISA) ha inserito due vulnerabilità critiche al catalogo Known Exploited Vulnerabilities (KEV) dell’...

Una vulnerabilità zero-day nel driver Windows Cloud Files Mini Filter (cldflt.sys) è attualmente oggetto di sfruttamento attivo. Microsoft ha provveduto al rilascio di aggiornamenti di sicurezza urg...

Una vulnerabilità critica, monitorata con il codice CVE-2025-59719, riguarda le linee di prodotti FortiOS, FortiWeb, FortiProxy e FortiSwitchManager è stata segnalata da Fortinet tramite un avviso d...

Secondo un rapporto pubblicato di recente dal Financial Crimes Enforcement Network (FinCEN), l’attività globale del ransomware ha raggiunto il picco nel 2023, per poi crollare nel 2024. Questo calo...

Siamo connessi, connessi a tutto, iperconnessi. La nostra vita professionale e sociale è scandita da deadline strettissime e da un’asticella che viene continuamente alzata, dobbiamo spingere. Ci im...