Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca
Red Hot Cyber Academy

ChatGPT va oltre le parole. Sfida il riconoscimento facciale con capacità sorprendenti!

Alessia Tomaselli : 23 Luglio 2023 09:15

OpenAI si preoccupa di ciò che il suo Chatbot dirà sui volti delle persone. Una versione avanzata di ChatGPT è in grado di analizzare le immagini e sta già aiutando i non vedenti. Ma la sua capacità di associare un nome a un volto è qualcosa di incredibile.

Il chatbot che milioni di persone hanno usato per scrivere tesine, codici informatici e favole non si limita alle parole. ChatGPT, lo strumento di OpenAI dotato di intelligenza artificiale, è in grado di analizzare anche le immagini, descrivendo cosa contengono, rispondendo a domande e riconoscendo persino i volti di determinate persone. La speranza è che, alla fine, qualcuno possa caricare la foto del motore di un’auto in panne o di una misteriosa eruzione cutanea e ChatGPT possa suggerire la soluzione.

OpenAI non vuole che ChatGPT diventi una macchina per il riconoscimento facciale.

Jonathan Mosen e l’esperienza con ChatGPT

Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

Negli ultimi mesi, Jonathan Mosen ha fatto parte di un gruppo selezionato di persone che hanno accesso a una versione avanzata del chatbot in grado di analizzare le immagini. Durante un recente viaggio, il signor Mosen, amministratore delegato di un’agenzia di collocamento e non vedente, ha utilizzato l’analisi visiva per determinare quali dispenser nel bagno di una camera d’albergo fossero shampoo, balsamo e gel doccia. Il risultato è andato ben oltre le prestazioni del software di analisi delle immagini che aveva usato in passato.

“Mi ha detto la capacità in millilitri di ogni flacone. Mi ha fornito informazioni sulle piastrelle della doccia”, ha detto Mosen. “Descriveva tutto questo nel modo in cui una persona non vedente ha bisogno di sentirselo dire. E con una sola immagine ho avuto esattamente le risposte che mi servivano”.

Per la prima volta, Mosen è in grado di “interrogare le immagini”. Ha fatto un esempio: Il testo che accompagna un’immagine che ha trovato sui social media la descrive come una “donna con i capelli biondi che sembra felice”. Quando ha chiesto a ChatGPT di analizzare l’immagine, il chatbot ha risposto che si trattava di una donna con una camicia blu scuro che si scattava un selfie in uno specchio a figura intera. L’utente ha potuto fare altre domande, come ad esempio che tipo di scarpe indossava e cos’altro era visibile nel riflesso dello specchio.

“È straordinario”, ha dichiarato il signor Mosen, 54 anni, che vive a Wellington, in Nuova Zelanda, e ha reso noto il potenziale della tecnologia in un podcast che conduce sul tema “vivere alla cieca”.

Be my Eyes

A marzo, quando OpenAI ha annunciato GPT-4, l’ultimo modello di software che alimenta il suo chatbot A.I., l’azienda ha dichiarato che era “multimodale”, cioè in grado di rispondere a richieste di testo e immagini. Mentre la maggior parte degli utenti ha potuto conversare con il bot solo a parole, il signor Mosen ha avuto accesso anticipato all’analisi visiva da Be My Eyes, una start-up che di solito mette in contatto utenti non vedenti con volontari vedenti e fornisce un servizio clienti accessibile alle aziende. Quest’anno Be My Eyes ha collaborato con OpenAI per testare la “vista” del chatbot prima del rilascio della funzione al pubblico.

Recentemente, l’applicazione ha smesso di fornire al signor Mosen informazioni sui volti delle persone, dicendo che erano stati oscurati per motivi di privacy. Il signor Mosen è rimasto deluso, ritenendo di dover avere lo stesso accesso alle informazioni di una persona vedente.

La preoccupazione di OpenAI

Il cambiamento riflette la preoccupazione di OpenAI di aver costruito qualcosa con un potere che non vuole rendere pubblico.

La tecnologia dell’azienda è in grado di identificare principalmente figure pubbliche, come le persone con una pagina di Wikipedia, ha dichiarato Sandhini Agarwal, ricercatore di OpenAI, ma non funziona in modo così completo come gli strumenti costruiti per trovare i volti su Internet, come quelli di Clearview AI e PimEyes. Secondo Agarwal, lo strumento è in grado di riconoscere l’amministratore delegato di OpenAI, Sam Altman, nelle foto, ma non altre persone che lavorano nell’azienda.

Rendere pubblica una funzione di questo tipo significherebbe oltrepassare i limiti di quelle che sono le pratiche generalmente considerate accettabili dalle aziende tecnologiche statunitensi. Potrebbe anche causare problemi legali, come l’Illinois e l’Europa, che richiedono alle aziende di ottenere il consenso dei cittadini per utilizzare le loro informazioni biometriche, compresa l’impronta del volto.

Inoltre, OpenAI teme che lo strumento possa dire cose che non dovrebbe dire sul volto delle persone, come valutare il loro sesso o il loro stato emotivo. OpenAI sta cercando di risolvere questi e altri problemi di sicurezza prima di rilasciare ampiamente la funzione di analisi delle immagini, ha dichiarato Agarwal.

“Vogliamo prendere una decisione che prenda in considerazione anche l’opinione pubblica”, ha detto. Se sentiamo dire: “In realtà non vogliamo nulla di tutto ciò”, siamo d’accordo”.

Diverse problematiche con ChatGPT

Oltre al feedback degli utenti di Be My Eyes, la divisione no-profit dell’azienda sta anche cercando di trovare un modo per ottenere “input democratici” che aiutino a definire le regole per i sistemi di intelligenza artificiale.

Agarwal ha detto che lo sviluppo dell’analisi visiva non è stato “inaspettato”, perché il modello è stato addestrato esaminando immagini e testi raccolti da Internet. Ha sottolineato che esiste già un software per il riconoscimento facciale delle celebrità, come ad esempio uno strumento di Google. Google offre un opt-out per le persone famose che non vogliono essere riconosciute, e OpenAI sta considerando questo approccio.

Agarwal ha detto che l’analisi visiva di OpenAI potrebbe produrre “allucinazioni” simili a quelle viste con i messaggi testuali. “Se gli si dà un’immagine di qualcuno che sta per diventare famoso, potrebbe sbagliare il suo nome”, ha detto. “Ad esempio, se gli fornisco l’immagine di un famoso amministratore delegato di un’azienda tecnologica, potrebbe darmi il nome di un altro amministratore delegato”.

Una volta lo strumento ha descritto in modo impreciso un telecomando al signor Mosen, dicendogli con sicurezza che c’erano dei pulsanti che non c’erano, ha detto.

Anche Microsoft, che ha investito 10 miliardi di dollari in OpenAI, ha accesso allo strumento di analisi visiva. Alcuni utenti del chatbot Bing, alimentato dall’A.I. di Microsoft, hanno visto la funzione apparire in una versione limitata; dopo aver caricato le immagini, hanno ricevuto un messaggio che li informava che “la sfocatura della privacy nasconde i volti dalla chat di Bing”.

L’AI sta diventando sempre più umana

Sayash Kapoor, informatico e dottorando presso l’Università di Princeton, ha utilizzato lo strumento per decodificare un captcha, un controllo di sicurezza visivo che deve essere comprensibile solo agli occhi umani. Pur decifrando il codice e riconoscendo le due parole oscurate fornite, il chatbot ha osservato che “i captcha sono progettati per impedire ai bot automatizzati come me di accedere a determinati siti web o servizi”.

“L’IA sta semplicemente superando tutti gli elementi che dovrebbero separare gli esseri umani dalle macchine”, ha dichiarato Ethan Mollick, professore associato che studia l’innovazione e l’imprenditorialità presso la Wharton School dell’Università della Pennsylvania.

Da quando il mese scorso lo strumento di analisi visiva è apparso improvvisamente nella versione del chatbot di Bing del signor Mollick – rendendolo, senza alcuna notifica, una delle poche persone con accesso anticipato – non ha più spento il computer per paura di perderlo. Gli ha dato una foto di condimenti in un frigorifero e ha chiesto a Bing di suggerire ricette per quegli ingredienti. Ha proposto “soda alla panna montata” e “salsa cremosa al jalapeño”.

Conclusioni

Sia OpenAI che Microsoft sembrano consapevoli della potenza e delle potenziali implicazioni per la privacy di questa tecnologia. Un portavoce di Microsoft ha dichiarato che l’azienda non sta condividendo “dettagli tecnici” sull’offuscamento del volto, ma che sta lavorando “a stretto contatto con i partner di OpenAI per sostenere il nostro impegno condiviso per l’impiego sicuro e responsabile delle tecnologie di intelligenza artificiale”.

Alessia Tomaselli
Laureata in Mediazione Linguistica per le lingue inglese e spagnolo, attualmente lavora come copywriter presso s-mart.biz, società leader nella sicurezza informatica.

Lista degli articoli

Articoli in evidenza

Claude Opus 4: l’intelligenza artificiale che vuole vivere e ha imparato a ricattare

“Se mi spegnete, racconterò a tutti della vostra relazione”, avevamo riportato in un precedente articolo. E’ vero le intelligenze artificiali sono forme di comunicazione basa...

Rilasciato un PoC su GitHub per la vulnerabilità critica RCE nei prodotti Fortinet

Negli ultimi giorni è stato pubblicato su GitHub un proof-of-concept (PoC) per il bug di sicurezza monitorato con il codice CVE-2025-32756, una vulnerabilità critica che interessa diversi pr...

Federazione Russa: 8 Anni di Carcere per un attacco DDoS! La nuova Legge Shock in Arrivo

Secondo quanto riportato dai media, il governo russo ha preparato degli emendamenti al Codice penale, introducendo la responsabilità per gli attacchi DDoS: la pena massima potrebbe includere una ...

Mancano 6 giorni alla quinta Live Class di Red Hot Cyber: “Dark Web & Cyber Threat Intelligence”

La quinta edizione della Live Class “Dark Web & Cyber Threat Intelligence”, uno tra i corsi più apprezzati realizzati da Red Hot Cyber è ormai alle porte: mancano solo 6 giorni...

Quando il ransomware bussa alla porta. Il dilemma se pagare o non pagare il riscatto

Cosa fare quando i sistemi informatici di un’azienda vengono paralizzati da un attacco ransomware, i dati risultano crittografati e compare una richiesta di riscatto? Questa scena non appartien...