
Bikinioff è un bot di Telegram che, sfruttando l’intelligenza artificiale, permette di togliere i vestiti alle persone nelle foto, restituendo un risultato convincente e rispettando le proporzioni del corpo e il tono della carnagione.
Sviluppato dall’azienda estone Crystal Future, nota per la produzione di giochi, il bot è diventato famoso per episodi deplorevoli, come la diffusione di foto di ragazze delle scuole medie della provincia di Roma.
Infatti, due adolescenti di 14 anni sono stati indagati per aver creato con l’app delle foto di cinque compagne di classe mostrate senza vestiti. Inoltre, molti direttori delle scuole stanno segnalando l’abuso di questa tecnologia in quanto molti studenti pubblicano queste foto durante le lezioni.
Allegando o inviando una foto, il bot elaborerà l’immagine in circa 30 secondi , generando un nudo coerente che riprende le caratteristiche della persona fotografata.

Il bot è gratuito solo per la prima foto. Per quelli successivi bisogna acquistare crediti pagando gli sviluppatori tramite criptovaluta , che permettono di evitare semplici tracciamenti per il destinatario.
Utilizzare Bikinioff comporta rischi sia per la sicurezza informatica che per la moralità, aprendosi a ricatti, prepotenze e vendette. È stato coinvolto in casi di produzione di materiale pedopornografico , come quello riportato in precedenza, dove i due quattordicenni diffondono foto nude dei loro compagni di scuola.
L’utilizzo sbagliato dell’intelligenza artificiale come quello descritto nel bot Bikinioff, è assolutamente inappropriato e può avere conseguenze negative sulla società, in particolare sui giovani adolescenti. Questo tipo di tecnologia può portare a comportamenti irresponsabili e a un aumento del cyberbullismo e della violazione della privacy delle donne.
Inoltre, è importante sottolineare che l’elaborazione di immagini senza il consenso della persona rappresentata è una grave violazione della sua privacy e dei suoi diritti. L’utilizzo di tale tecnologia non solo viola i diritti delle donne, ma anche gli standard etici e sociali che dovremmo tutti rispettare.
E’ importante che le persone capiscano che l’utilizzo improprio della tecnologia può avere conseguenze molto serie e che è importante utilizzare l’intelligenza artificiale in modo responsabile e rispettoso. Ma se per prime non lo faranno le grandi multinazionali nella vetta dell’olimpo della geopolitica, come pensiamo che lo faranno i singoli cittadini?
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber NewsL’Italia è finita ancora una volta nel mirino del collettivo hacktivista filorusso NoName057(16). Dopo i pesanti disservizi che hanno colpito l‘Università La Sapienza e le Gallerie degli Uffizi all’inizio di questa settimana. L’offensiva digitale russa…
Cyber NewsSecondo quanto riportato dal Corriere della Sera, l’attacco informatico che ha paralizzato i sistemi dell’Università La Sapienza non sarebbe motivato da fini politici. Gli hacker avrebbero inviato messaggi di rivendicazione spiegando di non agire per…
CybercrimeNella cyber security, spesso ci si concentra sulla ricerca di complessi bug nel codice sorgente, ignorando che la fiducia dell’utente finale passa per un elemento molto più semplice: un link di download. L’incidente che ha…
Cyber NewsNella giornata di lunedì mattina, un grave incidente informatico ha colpito l’Università La Sapienza di Roma, mettendo fuori uso una parte rilevante dell’infrastruttura digitale dell’ateneo. L’attacco ha avuto effetti immediati sulla didattica e sui servizi…
InnovazioneL’evoluzione delle piattaforme digitali ha raggiunto un punto di rottura dove la presenza umana non è più richiesta per alimentare il dibattito. Moltbook emerge come un esperimento sociale senza precedenti, un ecosistema dove milioni di…