Alessia Tomaselli : 23 Luglio 2023 09:15
OpenAI si preoccupa di ciò che il suo Chatbot dirà sui volti delle persone. Una versione avanzata di ChatGPT è in grado di analizzare le immagini e sta già aiutando i non vedenti. Ma la sua capacità di associare un nome a un volto è qualcosa di incredibile.
Il chatbot che milioni di persone hanno usato per scrivere tesine, codici informatici e favole non si limita alle parole. ChatGPT, lo strumento di OpenAI dotato di intelligenza artificiale, è in grado di analizzare anche le immagini, descrivendo cosa contengono, rispondendo a domande e riconoscendo persino i volti di determinate persone. La speranza è che, alla fine, qualcuno possa caricare la foto del motore di un’auto in panne o di una misteriosa eruzione cutanea e ChatGPT possa suggerire la soluzione.
OpenAI non vuole che ChatGPT diventi una macchina per il riconoscimento facciale.
Distribuisci i nostri corsi di formazione diventando un nostro Affiliato
Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Negli ultimi mesi, Jonathan Mosen ha fatto parte di un gruppo selezionato di persone che hanno accesso a una versione avanzata del chatbot in grado di analizzare le immagini. Durante un recente viaggio, il signor Mosen, amministratore delegato di un’agenzia di collocamento e non vedente, ha utilizzato l’analisi visiva per determinare quali dispenser nel bagno di una camera d’albergo fossero shampoo, balsamo e gel doccia. Il risultato è andato ben oltre le prestazioni del software di analisi delle immagini che aveva usato in passato.
“Mi ha detto la capacità in millilitri di ogni flacone. Mi ha fornito informazioni sulle piastrelle della doccia”, ha detto Mosen. “Descriveva tutto questo nel modo in cui una persona non vedente ha bisogno di sentirselo dire. E con una sola immagine ho avuto esattamente le risposte che mi servivano”.
Per la prima volta, Mosen è in grado di “interrogare le immagini”. Ha fatto un esempio: Il testo che accompagna un’immagine che ha trovato sui social media la descrive come una “donna con i capelli biondi che sembra felice”. Quando ha chiesto a ChatGPT di analizzare l’immagine, il chatbot ha risposto che si trattava di una donna con una camicia blu scuro che si scattava un selfie in uno specchio a figura intera. L’utente ha potuto fare altre domande, come ad esempio che tipo di scarpe indossava e cos’altro era visibile nel riflesso dello specchio.
“È straordinario”, ha dichiarato il signor Mosen, 54 anni, che vive a Wellington, in Nuova Zelanda, e ha reso noto il potenziale della tecnologia in un podcast che conduce sul tema “vivere alla cieca”.
A marzo, quando OpenAI ha annunciato GPT-4, l’ultimo modello di software che alimenta il suo chatbot A.I., l’azienda ha dichiarato che era “multimodale”, cioè in grado di rispondere a richieste di testo e immagini. Mentre la maggior parte degli utenti ha potuto conversare con il bot solo a parole, il signor Mosen ha avuto accesso anticipato all’analisi visiva da Be My Eyes, una start-up che di solito mette in contatto utenti non vedenti con volontari vedenti e fornisce un servizio clienti accessibile alle aziende. Quest’anno Be My Eyes ha collaborato con OpenAI per testare la “vista” del chatbot prima del rilascio della funzione al pubblico.
Recentemente, l’applicazione ha smesso di fornire al signor Mosen informazioni sui volti delle persone, dicendo che erano stati oscurati per motivi di privacy. Il signor Mosen è rimasto deluso, ritenendo di dover avere lo stesso accesso alle informazioni di una persona vedente.
Il cambiamento riflette la preoccupazione di OpenAI di aver costruito qualcosa con un potere che non vuole rendere pubblico.
La tecnologia dell’azienda è in grado di identificare principalmente figure pubbliche, come le persone con una pagina di Wikipedia, ha dichiarato Sandhini Agarwal, ricercatore di OpenAI, ma non funziona in modo così completo come gli strumenti costruiti per trovare i volti su Internet, come quelli di Clearview AI e PimEyes. Secondo Agarwal, lo strumento è in grado di riconoscere l’amministratore delegato di OpenAI, Sam Altman, nelle foto, ma non altre persone che lavorano nell’azienda.
Rendere pubblica una funzione di questo tipo significherebbe oltrepassare i limiti di quelle che sono le pratiche generalmente considerate accettabili dalle aziende tecnologiche statunitensi. Potrebbe anche causare problemi legali, come l’Illinois e l’Europa, che richiedono alle aziende di ottenere il consenso dei cittadini per utilizzare le loro informazioni biometriche, compresa l’impronta del volto.
Inoltre, OpenAI teme che lo strumento possa dire cose che non dovrebbe dire sul volto delle persone, come valutare il loro sesso o il loro stato emotivo. OpenAI sta cercando di risolvere questi e altri problemi di sicurezza prima di rilasciare ampiamente la funzione di analisi delle immagini, ha dichiarato Agarwal.
“Vogliamo prendere una decisione che prenda in considerazione anche l’opinione pubblica”, ha detto. Se sentiamo dire: “In realtà non vogliamo nulla di tutto ciò”, siamo d’accordo”.
Oltre al feedback degli utenti di Be My Eyes, la divisione no-profit dell’azienda sta anche cercando di trovare un modo per ottenere “input democratici” che aiutino a definire le regole per i sistemi di intelligenza artificiale.
Agarwal ha detto che lo sviluppo dell’analisi visiva non è stato “inaspettato”, perché il modello è stato addestrato esaminando immagini e testi raccolti da Internet. Ha sottolineato che esiste già un software per il riconoscimento facciale delle celebrità, come ad esempio uno strumento di Google. Google offre un opt-out per le persone famose che non vogliono essere riconosciute, e OpenAI sta considerando questo approccio.
Agarwal ha detto che l’analisi visiva di OpenAI potrebbe produrre “allucinazioni” simili a quelle viste con i messaggi testuali. “Se gli si dà un’immagine di qualcuno che sta per diventare famoso, potrebbe sbagliare il suo nome”, ha detto. “Ad esempio, se gli fornisco l’immagine di un famoso amministratore delegato di un’azienda tecnologica, potrebbe darmi il nome di un altro amministratore delegato”.
Una volta lo strumento ha descritto in modo impreciso un telecomando al signor Mosen, dicendogli con sicurezza che c’erano dei pulsanti che non c’erano, ha detto.
Anche Microsoft, che ha investito 10 miliardi di dollari in OpenAI, ha accesso allo strumento di analisi visiva. Alcuni utenti del chatbot Bing, alimentato dall’A.I. di Microsoft, hanno visto la funzione apparire in una versione limitata; dopo aver caricato le immagini, hanno ricevuto un messaggio che li informava che “la sfocatura della privacy nasconde i volti dalla chat di Bing”.
Sayash Kapoor, informatico e dottorando presso l’Università di Princeton, ha utilizzato lo strumento per decodificare un captcha, un controllo di sicurezza visivo che deve essere comprensibile solo agli occhi umani. Pur decifrando il codice e riconoscendo le due parole oscurate fornite, il chatbot ha osservato che “i captcha sono progettati per impedire ai bot automatizzati come me di accedere a determinati siti web o servizi”.
“L’IA sta semplicemente superando tutti gli elementi che dovrebbero separare gli esseri umani dalle macchine”, ha dichiarato Ethan Mollick, professore associato che studia l’innovazione e l’imprenditorialità presso la Wharton School dell’Università della Pennsylvania.
Da quando il mese scorso lo strumento di analisi visiva è apparso improvvisamente nella versione del chatbot di Bing del signor Mollick – rendendolo, senza alcuna notifica, una delle poche persone con accesso anticipato – non ha più spento il computer per paura di perderlo. Gli ha dato una foto di condimenti in un frigorifero e ha chiesto a Bing di suggerire ricette per quegli ingredienti. Ha proposto “soda alla panna montata” e “salsa cremosa al jalapeño”.
Sia OpenAI che Microsoft sembrano consapevoli della potenza e delle potenziali implicazioni per la privacy di questa tecnologia. Un portavoce di Microsoft ha dichiarato che l’azienda non sta condividendo “dettagli tecnici” sull’offuscamento del volto, ma che sta lavorando “a stretto contatto con i partner di OpenAI per sostenere il nostro impegno condiviso per l’impiego sicuro e responsabile delle tecnologie di intelligenza artificiale”.
Nel mese di aprile 2025, una valvola idraulica di una diga norvegese è stata forzatamente aperta da remoto per diverse ore, a seguito di un attacco informatico mirato. L’episodio, riportat...
Sul forum underground russo XSS è apparso un post che offre una “Collection di Lead Verificati Italia 2025” con oltre 1 milione di record. Questo tipo di inserzioni evidenzia la con...
Nel cuore dei conflitti contemporanei, accanto ai carri armati, ai droni e alle truppe, si combatte una guerra invisibile, silenziosa e spesso sottovalutata: la cyber war. Non è solo uno scenario...
Le autorità iberiche sono impegnate in un’indagine riguardante un pirata informatico che ha divulgato informazioni sensibili relative a funzionari pubblici e figure politiche di spicco. Tr...
Un insolito esempio di codice dannoso è stato scoperto in un ambiente informatico reale , che per la prima volta ha registrato un tentativo di attacco non ai classici meccanismi di difesa, ma dir...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006