Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca
Red Hot Cyber Academy

Deformazioni cognitive: distinguere il reale dal falso è la sfida delle delle IA

Redazione RHC : 26 Gennaio 2024 22:22

I robot inventano storie, scrivono testi secondo determinati parametri e compongono rivisitazioni. Alcuni programmi addirittura disegnano riproduzioni e creano musica. 

La velocità dello sviluppo tecnologico è sorprendente, ma allo stesso tempo sorge la domanda: quanto sono accurati gli algoritmi e cosa accadrebbe se i creatori di contenuti venissero sostituiti dall’intelligenza artificiale?

Le capacità dell’intelligenza artificiale in alcuni ambiti sono già superiori a quelle umane. Gli algoritmi risolvono un problema più velocemente e danno una risposta più accurata quando si tratta di elaborazione dei dati. Aiutano ad automatizzare processi nel commercio al dettaglio, nell’industria, nel settore bancario e in altri settori. 

CORSO NIS2 : Network and Information system 2
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce. Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.

Accedi All'Anteprima del Corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

Nella vita di tutti i giorni interagiamo con l’intelligenza artificiale tramite assistenti vocali, Face ID e traduttori. La creazione di blog e siti Web non fa eccezione. Molte persone utilizzano le reti neurali per costruire una strategia di contenuto. Gli strumenti digitali aiutano ad analizzare i dati, condurre ricerche SEO, identificare tendenze e persino discutere argomenti di contenuto. 

Un chatbot può scrivere un articolo per te o proporre diverse opzioni per il titolo in pochi minuti. Alcuni analizzano il pubblico di destinazione, il che aiuta a personalizzare i contenuti. Esistono tra l’altro servizi basati sull’intelligenza artificiale che generano immagini e video, ripristinano vecchie immagini e ne modificano di nuove. Sono spesso utilizzati nel marketing.

L’anno scorso le soluzioni basate sull’intelligenza artificiale nel segmento business-to-customer sono state utilizzate il 55-60% in più rispetto all’anno precedente. I più apprezzati erano i chatbot e gli assistenti vocali, nonché i sistemi di raccomandazione e i programmi per la sintesi di voce e immagini.

Si prevede che quest’anno l’intelligenza artificiale crescerà rapidamente. La ragione di ciò è l’enorme potenziale commerciale e la crescente produttività dei sistemi informatici. 

I principali attori nazionali prestano sempre più attenzione alle capacità delle reti neurali. I rappresentanti del settore IT sono fiduciosi che il potenziale principale dell’intelligenza artificiale possa essere rivelato attraverso le applicazioni mobili. 

Gli esperti stimano che entro il 2026 fino al 90% dei contenuti Internet sarà creato dall’intelligenza artificiale.

Tuttavia, sfortunatamente, gli uomini d’affari senza scrupoli non sempre utilizzano le reti neurali per lo scopo previsto. Qualsiasi strumento diventa un’arma nelle mani sbagliate. A volte le persone trasformano deliberatamente le reti neurali in relè delle loro idee. 

Ciò vale in particolare per la tecnologia deepfake. Grazie all’intelligenza artificiale si possono creare video diffamatori e falsi. Non solo le voci sintetizzate, ma anche le copie digitali a tutti gli effetti delle persone le quali possono essere utilizzate per scopi fraudolenti. 

I deepfake più avanzati ci porranno un nuovo problema etico. Allo stesso tempo, sorgono problemi con i testi creati dall’intelligenza artificiale. Non tutti sono affidabili, richiedono il controllo dei fatti e talvolta contengono errori semantici. Se pubblichi un articolo del genere senza correggerlo, corri il rischio di diventare un distributore di disinformazione.

L’uso dell’intelligenza artificiale per creare contenuti sta guidando il cambiamento non solo nell’ambiente digitale, ma anche nella società. Si stanno già osservando deformazioni cognitive: possiamo percepire il robot come un vero interlocutore, dialoghiamo con lui e ci fidiamo ciecamente delle sue affermazioni. Sta diventando sempre più difficile distinguere i fatti veri da quelli falsi, il che crea una bolla informativa intorno a noi. Per questo motivo è importante non dimenticare il lato etico, che una macchina non è ancora in grado di comprendere.

Lo sviluppo dell’intelligenza artificiale non può più essere fermato. Le tecnologie avanzate vengono introdotte sempre più spesso nella nostra vita quotidiana, automatizzano molti processi e quindi ci semplificano la vita. Tuttavia, ci sono sempre molti ostacoli sulla strada del progresso, in questo caso, questi sono rischi per la sicurezza.

Più abilità compaiono nell’intelligenza artificiale, più sottigliezze etiche emergono.

I testi generati dalle reti neurali possono essere composti in modo errato, con errori fattuali. Anche i deepfake, che sono diventati lo strumento preferito dei truffatori, destano preoccupazioni.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Intelligenza Artificiale: Come stiamo diventando più stupidi, in modo meraviglioso!

Sullo sfondo della diffusa popolarità degli assistenti AI generativi che promettono di creare codice funzionante per tutti basato su una semplice descrizione in linguaggio naturale, il team ...

Arriva KaliGPT! Ora l’hacking etico è diventato veramente alla portata di tutti?

Da tempo circolano modelli di intelligenza artificiale pensati per accelerare le attività di hacking, sia nel mondo underground che in contesti più legittimi e visibili. Kali GPT, un modello...

GhostSec: Azienda Italiana Commissiona Attacco Informatico Al Governo Macedone

GhostSec, noto collettivo di hacktivisti, ha recentemente rivelato dettagli su un’operazione controversa che coinvolge un’azienda italiana e obiettivi governativi macedoni. In un’...

Un Database AT&T da 3GB viene Venduto nel Dark Web: 73 Milioni di Record a Rischio

Negli ultimi giorni, su due noti forum underground specializzati nella compravendita di dati trafugati e metodi fraudolenti, sono comparsi dei post separati (ma identici nel contenuto), riguardanti un...

Non fidarti del codice prodotto dalle AI! Un bug Giurassico del 2010 infetta anche GPT-4

E se le intelligenze artificiali producessero del codice vulnerabile oppure utilizzassero librerie e costrutti contenenti bug vecchi mai sanati? Si tratta di allucinazione o apprendimento errato? Una ...