Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Il bot che spoglia senza consenso: la controversa realtà di Bikinioff tra deepfake e reazioni

Il bot che spoglia senza consenso: la controversa realtà di Bikinioff tra deepfake e reazioni

9 Giugno 2023 07:12

Quando è stato segnalato il problema rappresentato da Bikinioff, abbiamo assistito a delle reazioni a dir poco sorprendenti. Da un lato infatti c’è stato chi ha voluto guardare al dito e non alla luna, accusando il fatto stesso di fare informazione sul bot. Secondo questa ricostruzione teorica, andare ad informare circa il problema, in modo documentato e indicando le fonti, avrebbe l’effetto di incuriosire e dunque di aumentarlo. Altri – beninteso, in maggioranza ma non in totalità uomini – hanno invece preferito sminuire l’accaduto, tacciare di censura o bigotteria, arrivando a dire che tanto con un programma di editing certe cose si possono fare comunque.

Come mai non c’è stata una percezione corretta del problema, tanto che ne parlano così pochi? Tranquilli, al primo intervento istituzionale fioriranno gli esperti che prudentemente prima avevano scelto di non esprimersi né prendere posizione, dunque attendere e vedere dove va la corrente per cavalcare un trend topic. Nulla di sorprendente nel mondo di internet e dei social e dei professionisti che lo frequentano. Ma sempre abbastanza desolante.

Che fine hanno fatto tutti gli intenti di educazione digitale che si predicano da decenni? Vogliamo credere alla favola della tech neutrality? O forse chi va a dire di predicare da tempo proprio l’educazione digitale ha solo avuto l’intento di farne uno slogan? Insomma: lo stato dell’arte è sotto gli occhi di tutti, ed è ben poco qualificante.

Dall’informazione alla presa di coscienza

Sostenere che è meglio non palare di certe cose contraddice il ruolo dell’informazione alla radice. Far comprendere la facilità d’impiego di un servizio come quello di Bikinioff è come – mutatis mutandis – rivelare l’esistenza di un nuovo malware o di una vulnerabilità. Certo, in questo caso la remediation dovrebbe essere una presa di coscienza che si è vista mancare forse per difetto di sensibilità al problema.

Sono stati segnalati infatti dei rischi di sicurezza, condizioni e policy d’uso tutt’altro che trasparenti, e una destinazione d’uso che comporta una violazione sistematica dei diritti. Diventa piuttosto difficile immaginare un nesso logico con lo sviluppo di una qualche curiosità o tentazione di impiego. Non viene neanche indicato chi sia titolare del sito o dei canali, che con alcune ricerche si scopre essere una società estone.

Insomma: l’unica evidenza è una correlazione fra l’atto di indicare che il re è nudo (anzi: che il re è fatto per spogliare senza consenso chiunque) e delle reazioni scomposte che avrebbero preferito il silenzio a riguardo. Viene da domandarsi se per dipendenza dall’ennesimo gadget tecnologico o chissà per quale altro motivo.

Il problema principale è infatti rappresentato dalla destinazione d’uso del bot la quale è idonea alla produzione seriale, diffusa e sistematica di violazioni su larga scala. Ora è possibile generare dei deepfake adesso anche secondo altre categorie: bikini, lingerie, swimsuit, sport, business. Non soltanto nude, ma se il servizio viene presentato come “AI nudification App” c’è poco da dire su quello che sarà, e anzi vuol essere, l’impiego principale. Il tutto sempre al costo di 1 credito per immagine (il pacchetto minimo è di 10 CR al costo di 5,5 euro). Crediti che possono essere acquistati direttamente sul canale bot principale o da parte di “dealer” all’interno di un marketplace dedicato.

Le opacità, come è possibile intuire, non mancano. Così come i pericoli.

Peccato però che si preferisca guardare altrove e tacere. O peggio: far tacere.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Stefano Gazzella 300x300
Privacy Officer e Data Protection Officer, è Of Counsel per Area Legale. Si occupa di protezione dei dati personali e, per la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Responsabile del comitato scientifico di Assoinfluencer, coordina le attività di ricerca, pubblicazione e divulgazione. Giornalista pubblicista, scrive su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.
Aree di competenza: Privacy, GDPR, Data Protection Officer, Legal tech, Diritti, Meme
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…