Bikinioff è un bot di Telegram che, sfruttando l’intelligenza artificiale, permette di togliere i vestiti alle persone nelle foto, restituendo un risultato convincente e rispettando le proporzioni del corpo e il tono della carnagione.
Sviluppato dall’azienda estone Crystal Future, nota per la produzione di giochi, il bot è diventato famoso per episodi deplorevoli, come la diffusione di foto di ragazze delle scuole medie della provincia di Roma.
Infatti, due adolescenti di 14 anni sono stati indagati per aver creato con l’app delle foto di cinque compagne di classe mostrate senza vestiti. Inoltre, molti direttori delle scuole stanno segnalando l’abuso di questa tecnologia in quanto molti studenti pubblicano queste foto durante le lezioni.
Allegando o inviando una foto, il bot elaborerà l’immagine in circa 30 secondi , generando un nudo coerente che riprende le caratteristiche della persona fotografata.

Il bot è gratuito solo per la prima foto. Per quelli successivi bisogna acquistare crediti pagando gli sviluppatori tramite criptovaluta , che permettono di evitare semplici tracciamenti per il destinatario.
Utilizzare Bikinioff comporta rischi sia per la sicurezza informatica che per la moralità, aprendosi a ricatti, prepotenze e vendette. È stato coinvolto in casi di produzione di materiale pedopornografico , come quello riportato in precedenza, dove i due quattordicenni diffondono foto nude dei loro compagni di scuola.
L’utilizzo sbagliato dell’intelligenza artificiale come quello descritto nel bot Bikinioff, è assolutamente inappropriato e può avere conseguenze negative sulla società, in particolare sui giovani adolescenti. Questo tipo di tecnologia può portare a comportamenti irresponsabili e a un aumento del cyberbullismo e della violazione della privacy delle donne.
Inoltre, è importante sottolineare che l’elaborazione di immagini senza il consenso della persona rappresentata è una grave violazione della sua privacy e dei suoi diritti. L’utilizzo di tale tecnologia non solo viola i diritti delle donne, ma anche gli standard etici e sociali che dovremmo tutti rispettare.
E’ importante che le persone capiscano che l’utilizzo improprio della tecnologia può avere conseguenze molto serie e che è importante utilizzare l’intelligenza artificiale in modo responsabile e rispettoso. Ma se per prime non lo faranno le grandi multinazionali nella vetta dell’olimpo della geopolitica, come pensiamo che lo faranno i singoli cittadini?
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…