
Un team di scienziati dell’ETH di Zurigo, guidato da Andreas Plesner è riuscito a creare un modello di intelligenza artificiale che risolve i CAPTCHA – gli stessi test che i siti Web utilizzano per distinguere le persone dai bot – con incredibile precisione.
Il modello, che ha ricevuto il nome sonoro YOLO (You Only Look Once), è stato appositamente addestrato per risolvere i reCAPTCHAv2, un sistema di verifica sviluppato da Google. Questa versione richiede agli utenti di trovare oggetti specifici, come semafori o attraversamenti pedonali, tra una serie di immagini.
La chiave del successo di YOLO è stata la sua selezione limitata di oggetti legati alla strada. “Le categorie sono piuttosto ristrette, quindi il compito si riduce a selezionare tutte le immagini con un semaforo o un passaggio pedonale”, spiega Plesner. In totale, reCAPTCHAv2 opera su circa 13 diversi tipi di oggetti, tra cui automobili, autobus, biciclette e attraversamenti stradali.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Per addestrare il modello, i ricercatori hanno utilizzato circa 14.000 coppie di immagini con etichette corrispondenti per insegnargli a riconoscere le infrastrutture stradali. Questo approccio ha permesso di ottenere una precisione sorprendente.
Il team di Plesner ha condotto test approfonditi di YOLO in una varietà di contesti. Gli scienziati hanno preso in considerazione molti fattori che Google utilizza per identificare i bot. Tra questi c’è la capacità dell’intelligenza artificiale di imitare i movimenti del mouse umano, nonché la presenza della cronologia del browser e dei cookie sul dispositivo di prova. Inoltre, gli scienziati hanno analizzato come il sistema reagisce alle risposte fornite dall’IA durante il test CAPTCHA.
I risultati sono stati sorprendenti: l’IA ha completato con successo le attività nel 100% dei casi. Ciò tuttavia non significa che tutte le immagini siano state riconosciute correttamente. Come un essere umano, YOLO potrebbe rifiutare alcune opzioni e chiedere alternative. “Sono rimasto estremamente sorpreso dal fatto che il CAPTCHA fosse così vulnerabile“, ha ammesso Plesner.
La reazione di Google non si è fatta attendere. Un portavoce di Google Cloud ha dichiarato: “La nostra priorità è aiutare i clienti a proteggere gli utenti senza test visivi. Ecco perché abbiamo introdotto reCAPTCHA v3 nel 2018. Oggi, su 7 milioni di siti in tutto il mondo, la maggior parte delle protezioni reCAPTCHA opera dietro le quinte”.
“Le Vulnerabilità nelle tecnologie di riconoscimento delle immagini non sono un problema nuovo. Ecco perché miglioriamo continuamente reCAPTCHA nel tentativo di prevenire gli abusi garantendo allo stesso tempo un’esperienza fluida per gli utenti onesti.”
Questa ricerca apre un nuovo capitolo nella competizione senza fine tra gli sviluppatori di sistemi di sicurezza e i creatori di modelli di intelligenza artificiale sempre migliori.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

HackingUn nuovo script open source consente agli utenti di Windows 11 di disattivare in modo esteso le funzionalità di intelligenza artificiale integrate nel sistema operativo. Il progetto, sviluppato da Zoicware, si chiama RemoveWindowsAI e nasce…
InnovazioneQuando si parla di sicurezza applicativa, il problema raramente è uno solo. È quasi sempre una catena di piccoli difetti, scelte sbagliate e controlli mancanti che, sommati, aprono la strada a incidenti gravi. È anche…
Cybercrimen8n, la piattaforma di automazione del flusso di lavoro “fair-code” apprezzata dai team tecnici per la sua combinazione di velocità low-code e flessibilità di programmazione, ha emesso un avviso di sicurezza critico. Pochi dettagli sono…
VulnerabilitàWhatsApp, l’app di messaggistica di Meta con oltre 3 miliardi di utenti attivi mensili, ha iniziato a introdurre modifiche tecniche per mitigare alcune vulnerabilità legate alla privacy dei dispositivi degli utenti. Le correzioni, individuate tramite…
Cyber ItaliaIl CERT-AGID ha individuato una nuova campagna di smishing che utilizza il nome dell’INPS come esca per sottrarre informazioni personali e documenti sensibili ai cittadini. L’operazione fraudolenta è stata rilevata nei primi giorni di gennaio…