
Redazione RHC : 12 Ottobre 2025 09:03
La frase “Costruiremo sicuramente un bunker prima di lanciare l’AGI” dal quale prende spunto l’articolo, è stata attribuita a uno dei leader della Silicon Valley, anche se non è chiaro a chi si riferisse esattamente con “noi”.
La frase ha catturato perfettamente il paradosso dei nostri tempi e l’ironia è evidente: coloro che stanno facendo progredire l’intelligenza artificiale più sofisticata a livello mondiale sono gli stessi che sono tremendamente preoccupati per le sue ripercussioni.
Mentre stanno proseguendo nelle loro ricerche, stanno al contempo escogitando strategie di evasione. La situazione è simile a quella di chi costruisce una diga consapevole che finirà per cedere, ma anziché provvedere a rafforzarla, preferisce procurarsi un’imbarcazione.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Durante un incontro estivo nel 2023, Ilya Sutskever, cofondatore di OpenAI e mente brillante dietro ChatGPT, fece una dichiarazione intrigante ai suoi ricercatori: “Costruiremo sicuramente un bunker prima di rilasciare AGI”… e poi “Certo, sarà facoltativo decidere se entrare o meno nel bunker”.
Secondo quanto dichiarato da Reid Hoffman, fondatore di LinkedIn, una quota significativa, pari ad almeno il 50%, degli individui estremamente facoltosi nella Silicon Valley ha già fatto acquisizione di quella che viene definita come “assicurazione apocalittica”.
Jeff Bezos, fondatore di Amazon, ha acquistato due ville da 147 milioni di dollari sull’isola di Indian Creek in Florida. Larry Ellison, miliardario di Oracle, ha comprato (anche) una proprietà sull’isola hawaiana di Lanai. Peter Thiel, cofondatore di PayPal, ha scelto la Nuova Zelanda. Jack Ma, fondatore di Alibaba, il regista James Cameron e il guru della finanza William Foley hanno tutti costruito bunker postapocalittici in località remote.
La professoressa di informatica all’Università di Southampton, Dame Wendy Hall, non condivide le previsioni più cupe. Sostiene che, secondo la comunità scientifica, la tecnologia dell’intelligenza artificiale sia notevolmente avanzata ma ancora distante dall’intelligenza umana. Per arrivare a una vera AGI sarebbero necessari ulteriori significativi progressi. È eccessivo, quindi, drammatizzare la situazione. Le tempistiche, in particolare, lasciano perplessi.
Ma andiamo con calma ad analizzare la questione.
Quando emergerà l’AGI, l’intelligenza artificiale generale, paragonabile a quella umana per ampiezza di competenze? Gli ottimisti dicono che sarà molto presto. Il CEO di OpenAI, Sam Altman, ha dichiarato a dicembre 2024 che sarebbe successo “prima di quanto la maggior parte delle persone pensi”. Il co-fondatore di DeepMind, Sir Demis Hassabis, stima i tempi tra i cinque e i dieci anni. Il fondatore di Anthropic, Dario Amodei, preferisce parlare di “intelligenza artificiale potente” e prevede che potrebbe realizzarsi già nel 2026.
Gli scettici ribattono che “i traguardi vengono costantemente spostati”: secondo Dame Wendy Hall, professoressa dell’Università di Southampton, tutto dipende dalla persona a cui si chiede. La tecnologia è impressionante, ma è ancora lontana dall’intelligenza umana. Il CTO di Cognizant, Babak Hojat, concorda: prima sono necessarie diverse innovazioni fondamentali. E non aspettatevi che l’AGI emerga “istantaneamente”: non si tratta di un solo giorno, ma di una lunga strada, con decine di aziende che perseguono approcci diversi.
Parte di questo entusiasmo è alimentato dall’idea della fase successiva: l’AGI, o super intelligenza, che supererà gli esseri umani. Già nel 1958, al matematico ungherese-americano John von Neumann fu attribuita la prima formulazione della “singolarità“, il punto oltre il quale il ritmo e la natura dello sviluppo informatico sfuggono alla comprensione umana.
Nel libro del 2024 Genesis, Eric Schmidt, Craig Mundie e il compianto Henry Kissinger discutono di una tecnologia superpotente che prende decisioni e controlla in modo così efficace che gli esseri umani gradualmente le cedono il controllo. Nella loro logica, la domanda non è “se”, ma “quando”.
I sostenitori dipingono un quadro folgorante. L’intelligenza artificiale (AGI) contribuirà presumibilmente a trovare cure per malattie mortali, a superare la crisi climatica e a sbloccare fonti di energia pulita praticamente illimitate. Elon Musk ha parlato di una possibile era di “alto reddito universale”, in cui l’intelligenza artificiale diventerà così accessibile che tutti avranno il loro “R2-D2 e C-3PO”.
Nella sua visione, tutti avranno un’assistenza sanitaria, un alloggio, trasporti migliori e un’abbondanza sostenibile. Ma c’è un rovescio della medaglia in questo sogno. Si può impedire che un sistema del genere venga abusato dai terroristi o che concluda automaticamente che noi stessi siamo il problema più grande del pianeta?
Tim Berners-Lee, il creatore del World Wide Web, avverte che se una macchina è più intelligente di un essere umano, deve essere contenuta e, se necessario, “spenta”. I governi stanno cercando di costruire barriere protettive. Negli Stati Uniti, nel 2023, è stato emesso un ordine esecutivo presidenziale che impone ad alcune aziende di condividere i risultati dei test di sicurezza con le autorità, sebbene alcune disposizioni siano state successivamente indebolite in quanto “ostacolanti l’innovazione”.
Due anni fa, il Regno Unito ha lanciato l’AI Safety Institute, un’organizzazione governativa che studia i rischi dei modelli avanzati. In questo contesto, i super-ricchi discutono di “assicurazione contro l’apocalisse” – dalle case ai confini del mondo ai rifugi privati – sebbene anche in questo caso il fattore umano stia sconvolgendo tutto.
C’è anche chi considera l’intera discussione fuorviante. Il professore di Cambridge Neil Lawrence definisce il concetto stesso di AGI assurdo quanto “un veicolo universale artificiale”. Il mezzo di trasporto giusto dipende sempre dal contesto: le persone volano in Kenya, guidano fino all’università e vanno a piedi alla mensa. Non esiste e non esisterà mai un’auto adatta a tutti: perché aspettarsi il contrario dall’IA?
Lawrence ritiene che parlare di AGI distolga l’attenzione dai veri cambiamenti già in atto: per la prima volta, le persone comuni possono parlare con una macchina e capire cosa intende realmente. Questo sta cambiando la vita di tutti i giorni, il che significa che è necessario impegnarsi per garantire che la tecnologia funzioni a beneficio dei suoi utenti.
I sistemi attuali sono addestrati su enormi set di dati e sono eccellenti nel riconoscere schemi ricorrenti, dai marcatori tumorali nelle immagini alla probabile parola successiva in una frase. Ma non li “sentono”, non importa quanto convincenti sembrino le loro risposte.
Secondo Babak Hojat, esistono modi “intelligenti” per far sembrare che grandi modelli linguistici abbiano capacità di memoria e apprendimento, ma questi trucchi sono ben lontani dal livello umano. Il CEO di IV.AI, Vince Lynch, avverte che le affermazioni altisonanti sull’intelligenza artificiale sono semplicemente una trovata pubblicitaria. Se si costruisce “la cosa più intelligente del mondo”, i soldi arriveranno. In pratica, il percorso non si misura in due anni: richiede un’enorme potenza di calcolo, una grande creatività umana e infiniti tentativi ed errori.
Eppure, per certi aspetti, le macchine ci superano già nell’ampiezza delle loro applicazioni. L’intelligenza artificiale generativa può passare dalla storia medievale a equazioni complesse in un minuto. Persino gli sviluppatori non sempre capiscono perché il modello risponda in un certo modo, e alcune aziende segnalano miglioramenti nei loro sistemi. La biologia rimane ancora all’avanguardia: il cervello umano contiene circa 86 miliardi di neuroni e circa 600 trilioni di sinapsi, incomparabilmente di più delle architetture artificiali. Il cervello non ha bisogno di pause tra le interazioni; ristruttura continuamente la sua visione del mondo.
Se dici a una persona che è stata scoperta la vita su un esopianeta, questa lo integrerà immediatamente nella sua visione della realtà. Un modello linguistico “sa” questo solo nella misura in cui continui a ripeterglielo. L’LLM manca di metacognizione, la capacità di essere consapevoli della propria conoscenza. Gli esseri umani ce l’hanno, ed è spesso descritta come coscienza. È un elemento fondamentale dell’intelligenza che non è stato ancora replicato in laboratorio.
Dietro le grandiose previsioni e gli allarmi, a quanto pare, si nasconde una semplice verità: l’intelligenza artificiale sta già trasformando la vita quotidiana e i processi aziendali, e parlare di “vera” intelligenza artificiale è comodo per chi raccoglie fondi o definisce l’agenda.
Se e quando si verificherà un punto di singolarità rimane una questione aperta. Ma la qualità degli strumenti che creiamo ora, la loro sicurezza, trasparenza e utilità per le persone, dipendono molto più dei dibattiti su silos e date.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
Redazione
I servizi di Windows dedicati alle connessioni remote hanno da sempre rappresentato una fonte inesauribile di “soddisfazioni” per chi si occupa di sicurezza informatica, rivelando vulnerabilità d...

La scena è sempre quella: monitor accesi, dashboard piene di alert, log che scorrono troppo in fretta, un cliente in ansia dall’altra parte della call. Ti siedi, ti guardi intorno e ti rendi conto ...

Un noto broker di accesso iniziale (IAB) denominato “Storm-0249“, ha modificato le proprie strategie operative, utilizzando campagne di phishing ma anche attacchi altamente mirati, i quali sfrutta...

È stato rilasciato uno strumento che consente il monitoraggio discreto dell’attività degli utenti di WhatsApp e Signal utilizzando solo un numero di telefono. Il meccanismo di monitoraggio copre o...

Il MITRE ha reso pubblica la classifica delle 25 più pericolose debolezze software previste per il 2025, secondo i dati raccolti attraverso le vulnerabilità del national Vulnerability Database. Tali...