Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca
Red Hot Cyber Academy

ChatGPT va oltre le parole. Sfida il riconoscimento facciale con capacità sorprendenti!

Alessia Tomaselli : 23 Luglio 2023 09:15

OpenAI si preoccupa di ciò che il suo Chatbot dirà sui volti delle persone. Una versione avanzata di ChatGPT è in grado di analizzare le immagini e sta già aiutando i non vedenti. Ma la sua capacità di associare un nome a un volto è qualcosa di incredibile.

Il chatbot che milioni di persone hanno usato per scrivere tesine, codici informatici e favole non si limita alle parole. ChatGPT, lo strumento di OpenAI dotato di intelligenza artificiale, è in grado di analizzare anche le immagini, descrivendo cosa contengono, rispondendo a domande e riconoscendo persino i volti di determinate persone. La speranza è che, alla fine, qualcuno possa caricare la foto del motore di un’auto in panne o di una misteriosa eruzione cutanea e ChatGPT possa suggerire la soluzione.

OpenAI non vuole che ChatGPT diventi una macchina per il riconoscimento facciale.

Jonathan Mosen e l’esperienza con ChatGPT

Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)

Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure se solamente un curioso, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:

  • Creare Un Sistema Ai Di Visual Object Tracking (Hands on)
  • Social Engineering 2.0: Alla Scoperta Delle Minacce DeepFake
  • Doxing Con Langflow: Stiamo Costruendo La Fine Della Privacy?
  • Come Hackerare Un Sito WordPress (Hands on)
  • Il Cyberbullismo Tra Virtuale E Reale
  • Come Entrare Nel Dark Web In Sicurezza (Hands on)

  • Potete iscrivervi gratuitamente all'evento, che è stato creato per poter ispirare i ragazzi verso la sicurezza informatica e la tecnologia.
    Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765


    Supporta RHC attraverso:


    Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

    Negli ultimi mesi, Jonathan Mosen ha fatto parte di un gruppo selezionato di persone che hanno accesso a una versione avanzata del chatbot in grado di analizzare le immagini. Durante un recente viaggio, il signor Mosen, amministratore delegato di un’agenzia di collocamento e non vedente, ha utilizzato l’analisi visiva per determinare quali dispenser nel bagno di una camera d’albergo fossero shampoo, balsamo e gel doccia. Il risultato è andato ben oltre le prestazioni del software di analisi delle immagini che aveva usato in passato.

    “Mi ha detto la capacità in millilitri di ogni flacone. Mi ha fornito informazioni sulle piastrelle della doccia”, ha detto Mosen. “Descriveva tutto questo nel modo in cui una persona non vedente ha bisogno di sentirselo dire. E con una sola immagine ho avuto esattamente le risposte che mi servivano”.

    Per la prima volta, Mosen è in grado di “interrogare le immagini”. Ha fatto un esempio: Il testo che accompagna un’immagine che ha trovato sui social media la descrive come una “donna con i capelli biondi che sembra felice”. Quando ha chiesto a ChatGPT di analizzare l’immagine, il chatbot ha risposto che si trattava di una donna con una camicia blu scuro che si scattava un selfie in uno specchio a figura intera. L’utente ha potuto fare altre domande, come ad esempio che tipo di scarpe indossava e cos’altro era visibile nel riflesso dello specchio.

    “È straordinario”, ha dichiarato il signor Mosen, 54 anni, che vive a Wellington, in Nuova Zelanda, e ha reso noto il potenziale della tecnologia in un podcast che conduce sul tema “vivere alla cieca”.

    Be my Eyes

    A marzo, quando OpenAI ha annunciato GPT-4, l’ultimo modello di software che alimenta il suo chatbot A.I., l’azienda ha dichiarato che era “multimodale”, cioè in grado di rispondere a richieste di testo e immagini. Mentre la maggior parte degli utenti ha potuto conversare con il bot solo a parole, il signor Mosen ha avuto accesso anticipato all’analisi visiva da Be My Eyes, una start-up che di solito mette in contatto utenti non vedenti con volontari vedenti e fornisce un servizio clienti accessibile alle aziende. Quest’anno Be My Eyes ha collaborato con OpenAI per testare la “vista” del chatbot prima del rilascio della funzione al pubblico.

    Recentemente, l’applicazione ha smesso di fornire al signor Mosen informazioni sui volti delle persone, dicendo che erano stati oscurati per motivi di privacy. Il signor Mosen è rimasto deluso, ritenendo di dover avere lo stesso accesso alle informazioni di una persona vedente.

    La preoccupazione di OpenAI

    Il cambiamento riflette la preoccupazione di OpenAI di aver costruito qualcosa con un potere che non vuole rendere pubblico.

    La tecnologia dell’azienda è in grado di identificare principalmente figure pubbliche, come le persone con una pagina di Wikipedia, ha dichiarato Sandhini Agarwal, ricercatore di OpenAI, ma non funziona in modo così completo come gli strumenti costruiti per trovare i volti su Internet, come quelli di Clearview AI e PimEyes. Secondo Agarwal, lo strumento è in grado di riconoscere l’amministratore delegato di OpenAI, Sam Altman, nelle foto, ma non altre persone che lavorano nell’azienda.

    Rendere pubblica una funzione di questo tipo significherebbe oltrepassare i limiti di quelle che sono le pratiche generalmente considerate accettabili dalle aziende tecnologiche statunitensi. Potrebbe anche causare problemi legali, come l’Illinois e l’Europa, che richiedono alle aziende di ottenere il consenso dei cittadini per utilizzare le loro informazioni biometriche, compresa l’impronta del volto.

    Inoltre, OpenAI teme che lo strumento possa dire cose che non dovrebbe dire sul volto delle persone, come valutare il loro sesso o il loro stato emotivo. OpenAI sta cercando di risolvere questi e altri problemi di sicurezza prima di rilasciare ampiamente la funzione di analisi delle immagini, ha dichiarato Agarwal.

    “Vogliamo prendere una decisione che prenda in considerazione anche l’opinione pubblica”, ha detto. Se sentiamo dire: “In realtà non vogliamo nulla di tutto ciò”, siamo d’accordo”.

    Diverse problematiche con ChatGPT

    Oltre al feedback degli utenti di Be My Eyes, la divisione no-profit dell’azienda sta anche cercando di trovare un modo per ottenere “input democratici” che aiutino a definire le regole per i sistemi di intelligenza artificiale.

    Agarwal ha detto che lo sviluppo dell’analisi visiva non è stato “inaspettato”, perché il modello è stato addestrato esaminando immagini e testi raccolti da Internet. Ha sottolineato che esiste già un software per il riconoscimento facciale delle celebrità, come ad esempio uno strumento di Google. Google offre un opt-out per le persone famose che non vogliono essere riconosciute, e OpenAI sta considerando questo approccio.

    Agarwal ha detto che l’analisi visiva di OpenAI potrebbe produrre “allucinazioni” simili a quelle viste con i messaggi testuali. “Se gli si dà un’immagine di qualcuno che sta per diventare famoso, potrebbe sbagliare il suo nome”, ha detto. “Ad esempio, se gli fornisco l’immagine di un famoso amministratore delegato di un’azienda tecnologica, potrebbe darmi il nome di un altro amministratore delegato”.

    Una volta lo strumento ha descritto in modo impreciso un telecomando al signor Mosen, dicendogli con sicurezza che c’erano dei pulsanti che non c’erano, ha detto.

    Anche Microsoft, che ha investito 10 miliardi di dollari in OpenAI, ha accesso allo strumento di analisi visiva. Alcuni utenti del chatbot Bing, alimentato dall’A.I. di Microsoft, hanno visto la funzione apparire in una versione limitata; dopo aver caricato le immagini, hanno ricevuto un messaggio che li informava che “la sfocatura della privacy nasconde i volti dalla chat di Bing”.

    L’AI sta diventando sempre più umana

    Sayash Kapoor, informatico e dottorando presso l’Università di Princeton, ha utilizzato lo strumento per decodificare un captcha, un controllo di sicurezza visivo che deve essere comprensibile solo agli occhi umani. Pur decifrando il codice e riconoscendo le due parole oscurate fornite, il chatbot ha osservato che “i captcha sono progettati per impedire ai bot automatizzati come me di accedere a determinati siti web o servizi”.

    “L’IA sta semplicemente superando tutti gli elementi che dovrebbero separare gli esseri umani dalle macchine”, ha dichiarato Ethan Mollick, professore associato che studia l’innovazione e l’imprenditorialità presso la Wharton School dell’Università della Pennsylvania.

    Da quando il mese scorso lo strumento di analisi visiva è apparso improvvisamente nella versione del chatbot di Bing del signor Mollick – rendendolo, senza alcuna notifica, una delle poche persone con accesso anticipato – non ha più spento il computer per paura di perderlo. Gli ha dato una foto di condimenti in un frigorifero e ha chiesto a Bing di suggerire ricette per quegli ingredienti. Ha proposto “soda alla panna montata” e “salsa cremosa al jalapeño”.

    Conclusioni

    Sia OpenAI che Microsoft sembrano consapevoli della potenza e delle potenziali implicazioni per la privacy di questa tecnologia. Un portavoce di Microsoft ha dichiarato che l’azienda non sta condividendo “dettagli tecnici” sull’offuscamento del volto, ma che sta lavorando “a stretto contatto con i partner di OpenAI per sostenere il nostro impegno condiviso per l’impiego sicuro e responsabile delle tecnologie di intelligenza artificiale”.

    Alessia Tomaselli
    Laureata in Mediazione Linguistica per le lingue inglese e spagnolo, attualmente lavora come copywriter presso s-mart.biz, società leader nella sicurezza informatica.

    Articoli in evidenza

    Gli Hacktivisti di Anonymous Italia colpiscono nuovi obiettivi in Russia

    Negli ultimi mesi, il panorama dell’hacktivismo cibernetico ha visto un’intensificazione degli scontri tra gruppi di hacktivisti con orientamenti geopolitici opposti. In particolare, abb...

    Apple contro il Governo del Regno Unito! La battaglia segreta sulla crittografia si è svolta a porte chiuse

    La causa intentata da Apple contro il governo britannico ha iniziato a essere discussa a porte chiuse presso la Royal Courts of Justice di Londra. L’azienda non è d’accordo con la r...

    Chatbot cinese DeepSeek usato per sviluppare keylogger e ransomware con poca review

    I ricercatori di Tenable hanno studiato la capacità del chatbot cinese DeepSeek di sviluppare malware (keylogger e ransomware). Il chatbot DeepSeek R1 è apparso a gennaio...

    L’AGI è più vicina che mai! Ma il mondo non è ancora preparato a questi inevitabili cambiamenti

    “Ora che il Genio è uscito dalla lampada, è difficile rimettercelo dentro!” avevamo detto diverso tempo fa. Ma nonostante siano trascorsi due anni dall’introduzione dell...

    Open AI Esegue Attacchi di Phishing Autonomi! Scopri di cosa si tratta

    I ricercatori di sicurezza Symantec hanno dimostrato come utilizzare lo strumento Operator Agent di OpenAI per eseguire attacchi di rete con richieste minime. Questa ricerca rivela possibili tendenze ...