Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

Le IA potrebbero innescare una crisi finanziaria catastrofica. Yuval Noah Harari sottolinea una pausa di sei mesi

Redazione RHC : 11 Novembre 2023 15:45

L’intelligenza artificiale (IA) potrebbe scatenare una crisi finanziaria con conseguenze “catastrofiche”, avverte lo storico e scrittore Yuval Noah Harari. Sottolinea la complessità nel prevedere i pericoli associati all’IA a causa della sua natura sofisticata.

A differenza degli scenari legati alle armi nucleari, dove esiste una minaccia singola e ben compresa, l’IA introduce una moltitudine di possibili pericoli. Ciascuno ha una probabilità relativamente bassa. Harari sottolinea che l’effetto cumulativo di questi scenari costituisce una minaccia esistenziale per la civiltà umana.

Esprimendo preoccupazioni sulla sicurezza dei test dei modelli di IA, Harari sottolinea le sfide uniche poste dall’IA. A differenza delle tecnologie precedenti, l’IA ha la capacità di prendere decisioni in modo indipendente, generare nuove idee e imparare ed evolversi autonomamente. Questa autonomia rende estremamente difficile per gli esseri umani, anche per i creatori della tecnologia, anticipare tutti i potenziali pericoli e problemi.

Harari considera la recente dichiarazione multilaterale al vertice globale sulla sicurezza dell’IA a Bletchley Park come un passo cruciale avanti. La partecipazione di governi di spicco, tra cui l’Unione Europea, il Regno Unito, gli Stati Uniti e, soprattutto, la Cina, rappresenta un segnale positivo. La cooperazione globale è considerata essenziale per affrontare efficacemente gli aspetti più pericolosi dell’IA.

Durante il vertice, dieci governi, tra cui Regno Unito e Stati Uniti (escludendo la Cina), l’UE e importanti aziende di IA, come OpenAI e Google, hanno concordato di collaborare nei test dei modelli di IA avanzati prima e dopo il loro rilascio.

Sostenendo la prudenza nello sviluppo avanzato dell’IA, Harari supporta una pausa di sei mesi e chiede che le aziende di IA siano responsabili dei danni causati dai loro prodotti. Egli sottolinea la necessità di istituzioni regolatorie dotate di conoscenze tecnologiche per rispondere prontamente alle nuove scoperte, anziché concentrarsi esclusivamente su regolamentazioni e leggi specifiche.

Met­tendo in evi­den­za la finanza come un settore particolarmente adatto all’IA, Harari mette in guardia sul potenziale dell’IA nel creare strumenti finanziari altamente complessi che superano la comprensione umana. Paragonando la situazione alla crisi finanziaria del 2007-08 causata da strumenti di debito scarsamente compresi come i CDO, Harari immagina l’IA generare strumenti finanziari di complessità senza precedenti.

In questo scenario, potrebbe emergere un sistema finanziario al di là della comprensione e della regolamentazione umana, portando a una crisi dalle conseguenze molto estese.

Sebbene Harari riconosca il rischio catastrofico di una crisi finanziaria indotta dall’IA su fronti economici, sociali e politici, distingue tale rischio da una minaccia esistenziale per la civiltà umana. Egli nota che le conseguenze indirette, come l’innescare guerre o conflitti, potrebbero amplificare l’impatto di una crisi finanziaria.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.