Redazione RHC : 12 Ottobre 2025 09:03
La frase “Costruiremo sicuramente un bunker prima di lanciare l’AGI” dal quale prende spunto l’articolo, è stata attribuita a uno dei leader della Silicon Valley, anche se non è chiaro a chi si riferisse esattamente con “noi”.
La frase ha catturato perfettamente il paradosso dei nostri tempi e l’ironia è evidente: coloro che stanno facendo progredire l’intelligenza artificiale più sofisticata a livello mondiale sono gli stessi che sono tremendamente preoccupati per le sue ripercussioni.
Mentre stanno proseguendo nelle loro ricerche, stanno al contempo escogitando strategie di evasione. La situazione è simile a quella di chi costruisce una diga consapevole che finirà per cedere, ma anziché provvedere a rafforzarla, preferisce procurarsi un’imbarcazione.
![]() Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber"Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi". Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca. Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare. Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Durante un incontro estivo nel 2023, Ilya Sutskever, cofondatore di OpenAI e mente brillante dietro ChatGPT, fece una dichiarazione intrigante ai suoi ricercatori: “Costruiremo sicuramente un bunker prima di rilasciare AGI”… e poi “Certo, sarà facoltativo decidere se entrare o meno nel bunker”.
La sua affermazione enigmatica venne interrotta da un ricercatore che ne chiese il significato. Sutskever proseguì con una risposta che lasciò tutti sbalorditi: “Prima di procedere al lancio dell’AGI, costruiremo senza dubbio un bunker”.
Secondo quanto dichiarato da Reid Hoffman, fondatore di LinkedIn, una quota significativa, pari ad almeno il 50%, degli individui estremamente facoltosi nella Silicon Valley ha già fatto acquisizione di quella che viene definita come “assicurazione apocalittica”.
Jeff Bezos, fondatore di Amazon, ha acquistato due ville da 147 milioni di dollari sull’isola di Indian Creek in Florida. Larry Ellison, miliardario di Oracle, ha comprato (anche) una proprietà sull’isola hawaiana di Lanai. Peter Thiel, cofondatore di PayPal, ha scelto la Nuova Zelanda. Jack Ma, fondatore di Alibaba, il regista James Cameron e il guru della finanza William Foley hanno tutti costruito bunker postapocalittici in località remote.
La professoressa di informatica all’Università di Southampton, Dame Wendy Hall, non condivide le previsioni più cupe. Sostiene che, secondo la comunità scientifica, la tecnologia dell’intelligenza artificiale sia notevolmente avanzata ma ancora distante dall’intelligenza umana. Per arrivare a una vera AGI sarebbero necessari ulteriori significativi progressi. È eccessivo, quindi, drammatizzare la situazione. Le tempistiche, in particolare, lasciano perplessi.
Ma andiamo con calma ad analizzare la questione.
Quando emergerà l’AGI, l’intelligenza artificiale generale, paragonabile a quella umana per ampiezza di competenze? Gli ottimisti dicono che sarà molto presto. Il CEO di OpenAI, Sam Altman, ha dichiarato a dicembre 2024 che sarebbe successo “prima di quanto la maggior parte delle persone pensi”. Il co-fondatore di DeepMind, Sir Demis Hassabis, stima i tempi tra i cinque e i dieci anni. Il fondatore di Anthropic, Dario Amodei, preferisce parlare di “intelligenza artificiale potente” e prevede che potrebbe realizzarsi già nel 2026.
Gli scettici ribattono che “i traguardi vengono costantemente spostati”: secondo Dame Wendy Hall, professoressa dell’Università di Southampton, tutto dipende dalla persona a cui si chiede. La tecnologia è impressionante, ma è ancora lontana dall’intelligenza umana. Il CTO di Cognizant, Babak Hojat, concorda: prima sono necessarie diverse innovazioni fondamentali. E non aspettatevi che l’AGI emerga “istantaneamente”: non si tratta di un solo giorno, ma di una lunga strada, con decine di aziende che perseguono approcci diversi.
Parte di questo entusiasmo è alimentato dall’idea della fase successiva: l’AGI, o super intelligenza, che supererà gli esseri umani. Già nel 1958, al matematico ungherese-americano John von Neumann fu attribuita la prima formulazione della “singolarità“, il punto oltre il quale il ritmo e la natura dello sviluppo informatico sfuggono alla comprensione umana.
Nel libro del 2024 Genesis, Eric Schmidt, Craig Mundie e il compianto Henry Kissinger discutono di una tecnologia superpotente che prende decisioni e controlla in modo così efficace che gli esseri umani gradualmente le cedono il controllo. Nella loro logica, la domanda non è “se”, ma “quando”.
I sostenitori dipingono un quadro folgorante. L’intelligenza artificiale (AGI) contribuirà presumibilmente a trovare cure per malattie mortali, a superare la crisi climatica e a sbloccare fonti di energia pulita praticamente illimitate. Elon Musk ha parlato di una possibile era di “alto reddito universale”, in cui l’intelligenza artificiale diventerà così accessibile che tutti avranno il loro “R2-D2 e C-3PO”.
Nella sua visione, tutti avranno un’assistenza sanitaria, un alloggio, trasporti migliori e un’abbondanza sostenibile. Ma c’è un rovescio della medaglia in questo sogno. Si può impedire che un sistema del genere venga abusato dai terroristi o che concluda automaticamente che noi stessi siamo il problema più grande del pianeta?
Tim Berners-Lee, il creatore del World Wide Web, avverte che se una macchina è più intelligente di un essere umano, deve essere contenuta e, se necessario, “spenta”. I governi stanno cercando di costruire barriere protettive. Negli Stati Uniti, nel 2023, è stato emesso un ordine esecutivo presidenziale che impone ad alcune aziende di condividere i risultati dei test di sicurezza con le autorità, sebbene alcune disposizioni siano state successivamente indebolite in quanto “ostacolanti l’innovazione”.
Due anni fa, il Regno Unito ha lanciato l’AI Safety Institute, un’organizzazione governativa che studia i rischi dei modelli avanzati. In questo contesto, i super-ricchi discutono di “assicurazione contro l’apocalisse” – dalle case ai confini del mondo ai rifugi privati – sebbene anche in questo caso il fattore umano stia sconvolgendo tutto.
C’è anche chi considera l’intera discussione fuorviante. Il professore di Cambridge Neil Lawrence definisce il concetto stesso di AGI assurdo quanto “un veicolo universale artificiale”. Il mezzo di trasporto giusto dipende sempre dal contesto: le persone volano in Kenya, guidano fino all’università e vanno a piedi alla mensa. Non esiste e non esisterà mai un’auto adatta a tutti: perché aspettarsi il contrario dall’IA?
Lawrence ritiene che parlare di AGI distolga l’attenzione dai veri cambiamenti già in atto: per la prima volta, le persone comuni possono parlare con una macchina e capire cosa intende realmente. Questo sta cambiando la vita di tutti i giorni, il che significa che è necessario impegnarsi per garantire che la tecnologia funzioni a beneficio dei suoi utenti.
I sistemi attuali sono addestrati su enormi set di dati e sono eccellenti nel riconoscere schemi ricorrenti, dai marcatori tumorali nelle immagini alla probabile parola successiva in una frase. Ma non li “sentono”, non importa quanto convincenti sembrino le loro risposte.
Secondo Babak Hojat, esistono modi “intelligenti” per far sembrare che grandi modelli linguistici abbiano capacità di memoria e apprendimento, ma questi trucchi sono ben lontani dal livello umano. Il CEO di IV.AI, Vince Lynch, avverte che le affermazioni altisonanti sull’intelligenza artificiale sono semplicemente una trovata pubblicitaria. Se si costruisce “la cosa più intelligente del mondo”, i soldi arriveranno. In pratica, il percorso non si misura in due anni: richiede un’enorme potenza di calcolo, una grande creatività umana e infiniti tentativi ed errori.
Eppure, per certi aspetti, le macchine ci superano già nell’ampiezza delle loro applicazioni. L’intelligenza artificiale generativa può passare dalla storia medievale a equazioni complesse in un minuto. Persino gli sviluppatori non sempre capiscono perché il modello risponda in un certo modo, e alcune aziende segnalano miglioramenti nei loro sistemi. La biologia rimane ancora all’avanguardia: il cervello umano contiene circa 86 miliardi di neuroni e circa 600 trilioni di sinapsi, incomparabilmente di più delle architetture artificiali. Il cervello non ha bisogno di pause tra le interazioni; ristruttura continuamente la sua visione del mondo.
Se dici a una persona che è stata scoperta la vita su un esopianeta, questa lo integrerà immediatamente nella sua visione della realtà. Un modello linguistico “sa” questo solo nella misura in cui continui a ripeterglielo. L’LLM manca di metacognizione, la capacità di essere consapevoli della propria conoscenza. Gli esseri umani ce l’hanno, ed è spesso descritta come coscienza. È un elemento fondamentale dell’intelligenza che non è stato ancora replicato in laboratorio.
Dietro le grandiose previsioni e gli allarmi, a quanto pare, si nasconde una semplice verità: l’intelligenza artificiale sta già trasformando la vita quotidiana e i processi aziendali, e parlare di “vera” intelligenza artificiale è comodo per chi raccoglie fondi o definisce l’agenda.
Se e quando si verificherà un punto di singolarità rimane una questione aperta. Ma la qualità degli strumenti che creiamo ora, la loro sicurezza, trasparenza e utilità per le persone, dipendono molto più dei dibattiti su silos e date.
La frase “Costruiremo sicuramente un bunker prima di lanciare l’AGI” dal quale prende spunto l’articolo, è stata attribuita a uno dei leader della Silicon Valley, anche se non è chiaro a chi...
Negli Stati Uniti, una vasta campagna coordinata tramite botnet sta prendendo di mira i servizi basati sul protocollo Remote Desktop Protocol (RDP). Un pericolo notevole è rappresentato dalla scala e...
Un’ondata di messaggi di phishing sta colpendo in questi giorni numerosi cittadini lombardi. Le email, apparentemente inviate da una società di recupero crediti, fanno riferimento a presunti mancat...
La scorsa settimana, Oracle ha avvisato i clienti di una vulnerabilità zero-day critica nella sua E-Business Suite (CVE-2025-61882), che consente l’esecuzione remota di codice arbitrario senza aute...
Dal 6 al 9 ottobre 2025, Varsavia è stata teatro della 11ª edizione della European Cybersecurity Challenge (ECSC). In un confronto serrato tra 39 team provenienti da Stati membri UE, Paesi EFTA, can...