Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
970x20 Itcentric
TM RedHotCyber 320x100 042514
Propaganda Computazionale: le AI ci porteranno un internet di disinformazione. Parola di Bruce Schneier

Propaganda Computazionale: le AI ci porteranno un internet di disinformazione. Parola di Bruce Schneier

Redazione RHC : 22 Novembre 2023 07:44

Perché la “memoria” dei cani robot giapponesi AIBO è archiviata nel cloud e in che modo gli esperti di marketing ci fanno provare simpatia per gli oggetti inanimati? Leggi questo in un estratto dal libro del pioniere della crittografia moderna, Bruce Schneier.

Durante le elezioni americane del 2016, circa un quinto di tutti i tweet politici sono stati postati da bot. Durante il voto sulla Brexit nel Regno Unito di quell’anno, la quota era pari a un terzo. Un rapporto del 2019 dell’Oxford Internet Institute ha trovato prove dell’uso di bot per diffondere propaganda in 50 paesi. Di norma, si trattava di programmi semplici, che ripetevano slogan senza pensare. Ad esempio, dopo l’omicidio di Jamal Khashoggi nel 2018, circa un quarto di milione di tweet filo-sauditi, “Ci fidiamo tutti del [principe ereditario] Mohammed bin Salman”, sono stati pubblicati tramite bot.

Nel 2017, la Federal Communications Commission ha annunciato che avrebbe avviato discussioni pubbliche online sui suoi piani per abrogare la neutralità della rete. Sono stati ricevuti l’incredibile cifra di 22 milioni di commenti, molti dei quali, forse la metà, sono stati inviati utilizzando identità rubate. Questi commenti falsi sono stati fatti in modo molto rozzo: 1,3 milioni di essi sarebbero stati creati a partire dallo stesso modello, con alcune parole modificate per renderlo unico. Questo era visibile ad occhio nudo. 


Enterprise

Prova la Demo di Business Log! Adaptive SOC italiano
Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro. Scarica ora la Demo di Business Log per 30gg


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Tali tentativi diventeranno sempre più sofisticati. Per anni, i programmi di intelligenza artificiale hanno prodotto notizie sportive e finanziarie per organi di informazione reali come l’Associated Press. La natura limitata della maggior parte dei report su questi argomenti ha reso più semplice l’adattamento all’intelligenza artificiale. Oggi l’intelligenza artificiale viene utilizzata per scrivere storie più generali. I moderni sistemi di generazione di testo come GPT-3 di Open AI possono scrivere storie vere basate sui fatti che forniscono, ma possono anche scrivere notizie false quando vengono alimentate con bugie.

Non ci vuole molta immaginazione per capire come l’intelligenza artificiale peggiorerà il discorso politico. I personaggi controllati dall’intelligenza artificiale possono già scrivere lettere a giornali e funzionari eletti, lasciare commenti comprensibili su siti di notizie e bacheche e discutere di politica sui social network. Man mano che questi sistemi diventano più dettagliati e simulano in modo più convincente la personalità, diventa sempre più difficile distinguerli dalle persone reali. Le tattiche che una volta erano ovvie non sono più così facili da riconoscere oggi.

In un recente esperimento, i ricercatori hanno utilizzato un programma di generazione di testo per inviare 1.000 commenti in risposta a una richiesta del governo affinché i cittadini intervenissero su una questione di aiuto medico. Ogni commento sembrava unico, come se persone reali difendessero le proprie posizioni politiche. Gli amministratori del sito Medicaid.gov non hanno nemmeno dubitato della loro autenticità e hanno preso tutto per oro colato. I ricercatori hanno successivamente segnalato loro questi commenti e hanno chiesto loro di rimuoverli per evitare pregiudizi nei dibattiti politici. Tuttavia, non tutti saranno così etici.

Questi metodi vengono già utilizzati nel mondo reale per influenzare la politica. Una campagna di propaganda online ha utilizzato immagini facciali generate dall’intelligenza artificiale per creare falsi giornalisti. La Cina ha diffuso messaggi di testo generati dall’intelligenza artificiale progettati per influenzare le elezioni di Taiwan del 2020. La tecnologia Deepfake, che utilizza l’intelligenza artificiale per creare video realistici di eventi falsi, spesso coinvolgendo persone reali, per raffigurarle mentre dicono qualcosa che non hanno mai detto, è già in uso per scopi politici in paesi come Malesia, Belgio e Stati Uniti.

Un esempio di estensione di questa tecnologia è il bot come persone. Un’intelligenza artificiale che finge di essere un essere umano sui social media. I bot hanno una storia personale, un carattere e uno stile di comunicazione propri. Non si impegnano in una vera e propria propaganda. Tali robot vengono introdotti in vari gruppi di interesse: giardinaggio, lavoro a maglia, modellismo ferroviario, qualunque cosa. Si comportano come membri regolari di queste comunità, pubblicano, commentano e discutono. Sistemi come GPT-3 consentono loro di estrarre facilmente informazioni da conversazioni precedenti e contenuti Internet rilevanti per apparire come esperti in un particolare campo. 

Quindi, di tanto in tanto, la persona del bot potrebbe pubblicare qualcosa di politico, come un articolo sulla reazione allergica di un operatore sanitario al vaccino COVID-19, accompagnato da commenti preoccupati. Oppure fornire l’opinione sulle recenti elezioni, sulla giustizia razziale o su qualsiasi altro argomento polarizzante. Una “persona-bot” non può cambiare l’opinione pubblica, ma cosa succede se ce ne sono migliaia? O milioni?

A questo fenomeno è già stato dato un nome: propaganda computazionale. Cambierà radicalmente la nostra comprensione della comunicazione. L’intelligenza artificiale ha il potenziale per rendere infinita la diffusione della disinformazione. E può cambiare completamente il concetto stesso di comunicazione. Nel 2012, l’etica della robotica Kate Darling ha condotto un esperimento con un dinosauro di plastica animatronica chiamato Cleo, un giocattolo che rispondeva in modo diverso al tatto. Dopo che i partecipanti alla conferenza scientifica hanno giocato con Cleo, lei ha cercato di convincerli a “ferire” il giocattolo in vari modi. 

Tuttavia, anche giocare con Cleo per un breve periodo ha fatto provare così tanta simpatia alle persone che si sono rifiutate di farlo, anche se il giocattolo chiaramente non sentiva dolore. Questa è una reazione umana fondamentale. Intellettualmente potremmo capire che Cleo sia solo un dinosauro di plastica verde, ma la grande testa abbinata ad un corpo piccolo ci fa percepire l’oggetto come un bambino. Inoltre, il giocattolo ha un nome che ci dice che è “lei”! E lei reagisce ai nostri tocchi! 

All’improvviso iniziamo a trattarla come un essere vivente e ci sentiamo obbligati a proteggerla da qualsiasi male. E anche se questa reazione sembra piuttosto benevola, cosa succede quando questo simpatico robottino guarda i suoi proprietari con grandi occhi tristi e chiede loro di comprargli un aggiornamento software?

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Altro che Marketing! Le VPN si vendono da sole ogni volta che un governo blocca i siti per adulti
Di Redazione RHC - 11/11/2025

Centinaia di milioni di utenti di smartphone hanno dovuto affrontare il blocco dei siti web pornografici e l’obbligo di verifica dell’età. Nel Regno Unito è in vigore la verifica obbligatoria de...

Immagine del sito
Sicurezza Wi-Fi: Evoluzione da WEP a WPA3 e Reti Autodifensive
Di Francesco Demarcus - 11/11/2025

Dalle fragilità del WEP ai progressi del WPA3, la sicurezza delle reti Wi-Fi ha compiuto un lungo percorso. Oggi, le reti autodifensive rappresentano la nuova frontiera: sistemi intelligenti capaci d...

Immagine del sito
Inside Out: perché la Tristezza è il tuo miglior firewall
Di Daniela Farina - 11/11/2025

Siamo ossessionati da firewall e crittografia. Investiamo miliardi in fortezze digitali, ma le statistiche sono inesorabili: la maggior parte degli attacchi cyber non inizia con un difetto nel codice,...

Immagine del sito
Alle Origini di UNIX: il Nastro dei Bell Labs ritrovato in uno scantinato dell’Università dello Utah
Di Redazione RHC - 10/11/2025

Un raro ritrovamento risalente ai primi giorni di Unix potrebbe riportare i ricercatori alle origini stesse del sistema operativo. Un nastro magnetico etichettato “UNIX Original From Bell Labs V4 (V...

Immagine del sito
21 anni di Firefox: una storia di innovazione e indipendenza
Di Redazione RHC - 10/11/2025

Il 9 novembre ha segnato il 21° anniversario di Firefox 1.0. Nel 2004, è stata la prima versione stabile del nuovo browser di Mozilla, che si è subito posizionato come un’alternativa semplice e s...