Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Select language
Cyber Offensive Fundamentals 970x120 V0.1
Banner Mobile
Il vero rischio dell’AI non è che sbagli, ma che funzioni troppo bene

Il vero rischio dell’AI non è che sbagli, ma che funzioni troppo bene

13 Gennaio 2026 07:12

Negli ultimi anni l’attenzione sull’intelligenza artificiale si è concentrata soprattutto su ciò che può andare storto: errori, bias, allucinazioni, vulnerabilità tecniche. È stato un passaggio necessario. Ma oggi, paradossalmente, il rischio più rilevante non nasce più dal malfunzionamento dell’AI. Nasce dal fatto che l’AI funziona sempre meglio.

Sistemi affidabili, disponibili, veloci, capaci di sostenere il lavoro cognitivo quotidiano stanno entrando in modo silenzioso nei processi decisionali, educativi e organizzativi. Riducendo la frizione, aumentano l’efficienza. Riducendo lo sforzo, aumentano l’adozione. Ma insieme a questi benefici, si produce un effetto meno visibile: lo spostamento progressivo della responsabilità dall’uomo al sistema.

Non si tratta di una delega esplicita. Nessuno “consegna” davvero le decisioni a una macchina. La delega avviene per abitudine, per comodità, per continuità operativa. Avviene quando il suggerimento diventa default, quando l’assistenza diventa norma, quando il supporto cognitivo smette di essere percepito come tale. È una trasformazione graduale, difficile da misurare e quasi impossibile da intercettare con i tradizionali indicatori tecnici.


Cyber Offensive Fundamentale Ethical Hacking 02

Avvio delle iscrizioni al corso Cyber Offensive Fundamentals
Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica?
La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Le organizzazioni oggi monitorano prestazioni, costi, accuratezza dei modelli, tempi di risposta. Investono — giustamente — in sicurezza, compliance, affidabilità infrastrutturale. Ma in questo quadro manca un presidio essenziale: nessuno governa in modo esplicito la relazione tra l’essere umano e il sistema di intelligenza artificiale.

Eppure è proprio lì, in quello spazio intermedio, che si stanno accumulando nuovi rischi: perdita di autonomia decisionale, dipendenza cognitiva, fiducia non calibrata, erosione lenta delle competenze. Rischi che non producono incidenti immediati, ma che modificano nel tempo il comportamento umano e la qualità delle decisioni.

Questo articolo nasce da una constatazione semplice:
prima di chiederci cosa farà l’AI nel futuro, dovremmo chiederci chi si sta prendendo cura oggi dello spazio tra noi e lei.

È in quello spazio che si apre una soglia nuova — tecnica, cognitiva, organizzativa — che richiede competenze specifiche. Non per rendere l’AI più potente, ma per evitare che diventi invisibile. Non per rallentare l’innovazione, ma per renderla governabile.

1. Dalla sicurezza tecnica alla sicurezza cognitiva

Nel dominio della cybersecurity abbiamo imparato, spesso a caro prezzo, che la sicurezza non è mai un fatto puramente tecnico. Abbiamo imparato a mappare le attack surface, a proteggere la supply chain, a considerare il fattore umano come parte integrante del rischio. Password deboli, procedure aggirate, automatismi operativi: per anni sono stati il punto di ingresso più frequente degli incidenti.

Oggi, con l’ingresso massivo dei sistemi di intelligenza artificiale nei processi quotidiani, stiamo assistendo a uno spostamento silenzioso ma profondo. Accanto alle superfici di attacco tradizionali, ne sta emergendo una nuova, ancora poco osservata: la relazione operativa tra essere umano e AI.

Questa relazione non è un dettaglio di contorno. È il luogo in cui si formano fiducia, abitudine, dipendenza. Ed è proprio lì che variabili apparentemente “soft” iniziano a comportarsi come fattori di rischio veri e propri. La fiducia può trasformarsi in affidamento automatico. L’abitudine può ridurre la capacità critica. La dipendenza può rendere fragile un sistema anche in assenza di vulnerabilità tecniche.

In questo contesto, la relazione diventa manipolabile. Non necessariamente da un attaccante esterno, ma anche da dinamiche interne: design orientato all’engagement, eccessiva fluidità dell’interazione, assenza di frizione intenzionale. Un sistema che “aiuta sempre” può finire per non essere più messo in discussione. Un suggerimento costantemente accurato può diventare una decisione implicita.

La differenza rispetto al passato è sottile ma decisiva. Non parliamo più soltanto di errori umani o di comportamenti scorretti, ma di pattern relazionali che si consolidano nel tempo e che modificano il modo in cui le persone pensano, scelgono, decidono. Sono rischi lenti, cumulativi, difficili da intercettare con metriche tradizionali.

Per questo la relazione uomo–AI non può essere considerata neutra, né innocua. È uno spazio operativo a tutti gli effetti. E come ogni spazio operativo critico, richiede progettazione, monitoraggio e responsabilità. Ignorarlo significa lasciare scoperta una parte crescente del sistema, proprio mentre l’AI diventa più affidabile, più pervasiva e meno visibile.

2. Non nuovi “lavori AI”, ma competenze senza owner

Quando si parla di intelligenza artificiale e lavoro, il dibattito tende a polarizzarsi rapidamente: da un lato l’automazione che sostituisce, dall’altro una proliferazione di nuovi ruoli dai nomi sempre più creativi. Fenomeni come automation bias, over-reliance e fiducia eccessiva nei sistemi sono già noti nella letteratura sui fattori umani e sull’interazione uomo–macchina.
Il punto, oggi, non è riconoscerli. È chiedersi chi li presidia operativamente all’interno delle organizzazioni.

In questo articolo non stiamo immaginando professioni futuristiche né cercando di anticipare un mercato del lavoro che ancora non esiste. Stiamo facendo qualcosa di più semplice — e più urgente: stiamo nominando vuoti operativi già presenti. Spazi di responsabilità che oggi nessuno presidia in modo esplicito, non perché non siano importanti, ma perché non rientrano chiaramente in nessuna funzione esistente.

Le competenze di soglia legate alla relazione uomo–AI oggi sono disperse. Un po’ ricadono sugli sviluppatori, un po’ sui designer, un po’ sulla formazione, un po’ sulla sicurezza o sull’HR. Spesso vengono assegnate per inerzia, come estensione implicita di ruoli nati per altri scopi. Più spesso ancora, semplicemente non vengono considerate.

Il risultato è un paradosso organizzativo: sistemi sempre più sofisticati interagiscono con le persone ogni giorno, ma nessuno è realmente responsabile di come quella relazione viene governata nel tempo. Quando qualcosa va storto, l’errore viene attribuito all’utente, al modello o al contesto. Raramente alla relazione stessa.

Eppure è proprio lì che si gioca una parte crescente del rischio. Non nel singolo output, ma nell’accumulo di interazioni. Non nell’errore evidente, ma nell’assuefazione progressiva. La domanda centrale, a questo punto, diventa inevitabile: chi è responsabile della relazione tra l’essere umano e l’AI?

Nei prossimi anni queste competenze non spariranno, perché non sono un effetto collaterale passeggero. Al contrario, tenderanno a convergere. Non per moda, ma per necessità. Quando una responsabilità diventa sistemica, prima o poi trova un proprio perimetro. Ed è da questa convergenza che iniziano a emergere le prime figure di soglia.

3. Prima figura — Ingegnere della Relazione Cognitiva Uomo–AI

Dominio: governo dell’interazione operativa quotidiana tra persone e sistemi di AI.

Questa prima figura emerge dove l’intelligenza artificiale è presente in modo continuo nelle attività cognitive delle persone. Non lavora sul modello in quanto tale, né sull’utente come individuo isolato. Il suo oggetto è la relazione operativa che si stabilisce nel tempo tra l’essere umano e il sistema di AI, e il modo in cui questa relazione influenza decisioni, comportamenti e livelli di autonomia.

Per evitare fraintendimenti, è utile chiarire subito cosa non è questa figura.
Non è uno psicologo: non opera in ambito clinico né interviene sulla persona come paziente.
Non è un prompt engineer: non ottimizza input per migliorare le risposte del modello.
Non è un esperto di human–computer interaction: non progetta interazioni per aumentare engagement o fluidità.
Non è una figura di policy o di governance: non valuta a posteriori, ma interviene su sistemi reali, in contesti operativi concreti.

Il suo compito principale è governare l’equilibrio tra fiducia e autonomia. Quando un sistema funziona bene, il rischio non è l’errore evidente, ma l’affidamento automatico. Per questo una competenza centrale di questa figura è la progettazione dei limiti operativi dell’AI: decidere quando il sistema deve tacere, quando deve rifiutare una richiesta, quando introdurre una latenza intenzionale che interrompa la risposta immediata e restituisca spazio alla decisione umana.

Questa figura lavora anche sulla prevenzione della dipendenza cognitiva, intesa non come problema individuale, ma come effetto sistemico di interazioni troppo continue e prive di frizione. Osserva i pattern che si consolidano nel tempo — over-trust, delega implicita, riduzione della capacità critica — e interviene sul comportamento del sistema prima che questi diventino strutturali. In questo senso, l’adattamento dell’AI allo stato dell’utente e al contesto non serve a “personalizzare” l’esperienza, ma a mantenerla sostenibile.

L’Ingegnere della Relazione Cognitiva Uomo–AI è già necessario in diversi ambiti concreti: nell’educazione e nella formazione, dove l’assistenza continua può erodere i processi di apprendimento; nel knowledge work, dove il supporto cognitivo rischia di trasformarsi in sostituzione silenziosa; negli ambienti decisionali sensibili, dove suggerimenti accurati possono diventare decisioni implicite; e in tutti i contesti ad alta delega cognitiva in cui l’AI è sempre presente, sempre disponibile, sempre pronta a rispondere.

In tutti questi casi, il problema non è l’uso dell’AI.
Il problema è l’assenza di una responsabilità chiara su come quella relazione viene progettata e mantenuta nel tempo.

4. Seconda figura — Responsabile della Continuità e Sicurezza Cognitiva

Dominio: lungo tempo, stabilità, rischio sistemico.

Questa seconda figura emerge quando l’intelligenza artificiale non è più uno strumento occasionale, ma diventa una componente persistente dell’organizzazione. Nasce quando i sistemi di AI vengono aggiornati nel tempo, mantengono memoria, influenzano processi decisionali e si integrano in modo strutturale nei flussi di lavoro. In altre parole, quando l’AI smette di essere un progetto e diventa infrastruttura.

In questi contesti, il rischio non è più legato alla singola interazione, ma alla continuità nel tempo. Modelli che cambiano comportamento senza che gli utenti se ne accorgano, policy che evolvono, basi di conoscenza che si aggiornano: tutto questo può produrre fratture cognitive invisibili, anche in assenza di incidenti tecnici. È qui che diventa necessaria una responsabilità specifica.

Il Responsabile della Continuità e Sicurezza Cognitiva presidia la continuità cognitiva dell’AI, distinta da quella puramente tecnica. Non si limita a garantire che il sistema resti disponibile o performante, ma che resti coerente nel modo in cui interagisce, suggerisce, orienta le decisioni. In questo ambito rientra il monitoraggio del drift comportamentale e valoriale: cambiamenti graduali che, accumulandosi nel tempo, possono alterare in modo significativo il ruolo dell’AI all’interno dell’organizzazione.

Un altro compito centrale di questa figura è la progettazione e il presidio delle competenze umane necessarie a operare anche senza AI. Quando l’AI non è disponibile, quando viene disattivata o quando si rende necessario ridurne l’uso, l’organizzazione deve essere in grado di recuperare competenze, processi decisionali e responsabilità. Senza un presidio esplicito, il rischio è quello di una dipendenza strutturale difficile da invertire.

Questa figura è inoltre responsabile dell’audit del comportamento dell’AI nel tempo. Non solo log tecnici, ma analisi della coerenza delle risposte, del tono, delle modalità di supporto. La gestione degli update — che si tratti di modelli, policy o memoria — diventa così un’operazione critica, da valutare non solo in termini di miglioramento funzionale, ma di impatto cognitivo e organizzativo.

Per sua natura, il Responsabile della Continuità e Sicurezza Cognitiva opera all’intersezione tra più funzioni. Le sue interfacce naturali sono la governance, il risk management, la compliance e la sicurezza. Non introduce nuovi vincoli per rallentare l’innovazione, ma rende esplicite le responsabilità necessarie perché l’AI possa essere adottata in modo stabile, sostenibile e difendibile nel tempo.

5. Due figure, un sistema

Le due figure descritte finora non rappresentano specializzazioni alternative né livelli gerarchici differenti. Sono funzioni complementari che operano sullo stesso sistema — la relazione tra essere umano e AI — lungo assi temporali diversi.

L’Ingegnere della Relazione Cognitiva Uomo–AI agisce sul presente operativo. Osserva ciò che accade nell’interazione quotidiana: micro-comportamenti, abitudini d’uso, modalità di affidamento che si formano nell’uso continuo dell’AI. Il suo intervento è vicino, situato, orientato a intercettare segnali precoci di squilibrio tra supporto e autonomia.

Il Responsabile della Continuità e Sicurezza Cognitiva opera invece sul lungo tempo. Il suo sguardo è rivolto alla coerenza complessiva del sistema nel corso di mesi e anni. Governa dinamiche che non producono effetti immediati, ma che incidono progressivamente sulla capacità decisionale, sulla resilienza organizzativa e sulla tenuta delle responsabilità nel tempo.

Tenere distinte queste due funzioni non significa frammentare la responsabilità, ma renderla leggibile e governabile. Senza un presidio dell’interazione quotidiana, i segnali di deriva vengono intercettati troppo tardi. Senza un presidio della continuità nel tempo, gli interventi locali restano isolati e inefficaci.

In questo senso, le due figure lavorano sullo stesso oggetto da prospettive diverse: una osserva e interviene sui comportamenti che emergono nell’uso, l’altra garantisce che tali comportamenti restino coerenti, controllabili e reversibili nel tempo. Insieme, consentono di trattare la relazione tra umano e AI non come un effetto collaterale dell’adozione tecnologica, ma come una dimensione strutturale del sistema.

6. Le competenze accademiche necessarie: una base non negoziabile

Le due figure descritte finora non sono “nuove” perché nascono dal nulla, ma perché ricompongono competenze che oggi sono frammentate. Proprio per questo, non possono essere improvvisate né ridotte a un insieme di skill operative. Governare una relazione socio-tecnica complessa richiede una formazione solida, interdisciplinare, che oggi raramente viene tenuta insieme in modo esplicito.

Un primo pilastro è l’ingegneria dei sistemi complessi. Comprendere sistemi socio-tecnici significa saper leggere feedback, effetti emergenti e dinamiche non lineari che non si manifestano immediatamente. Senza questa prospettiva, il rischio è intervenire solo sui sintomi visibili, perdendo di vista i meccanismi che producono le derive nel tempo.

A questo si affiancano le scienze cognitive e la psicologia non clinica. Attenzione, carico cognitivo, decision making e bias legati all’automazione non sono temi “soft”, ma variabili strutturali dell’interazione uomo–AI. Sono indispensabili per progettare sistemi che supportino l’umano senza degradarne progressivamente le capacità.

È poi necessaria una competenza reale in informatica e intelligenza artificiale, almeno a livello architetturale. Comprendere come funzionano modelli e pipeline, quali sono i loro limiti strutturali e dove si colloca la differenza tra capacità apparente e affidabilità è essenziale per evitare figure che parlano della relazione senza comprendere la macchina che la rende possibile.

Un ulteriore dominio è quello dell’etica applicata e della filosofia della tecnologia, intese non come esercizio teorico, ma come strumenti per ragionare in modo rigoroso su responsabilità, agency e delega decisionale. È qui che si costruisce la capacità di porre limiti motivati all’automazione, quando il supporto rischia di trasformarsi in sostituzione.

Infine, soprattutto per la seconda figura, sono imprescindibili competenze di governance, gestione del rischio e sicurezza. Risk assessment, audit e accountability non sono elementi accessori, ma parte integrante della progettazione di sistemi che devono restare affidabili, sostenibili e difendibili nel tempo.

Oggi queste competenze sono distribuite tra corsi, facoltà e dipartimenti diversi. Le figure di cui abbiamo parlato emergeranno davvero solo quando qualcuno inizierà a ritenerle veramente necessarie e unitarie, non come iperspecializzazione verticale, ma come integrazione matura. Fino ad allora, il rischio è continuare ad adottare sistemi sempre più avanzati affidandosi a responsabilità implicite e frammentate.

7. Perché parlarne ora (e non tra dieci anni)

Parlare oggi di queste competenze può sembrare prematuro. In fondo, molte organizzazioni stanno ancora sperimentando l’adozione dell’AI, cercando di comprenderne benefici e limiti. Ma è proprio questa fase iniziale a rendere il tema non rinviabile.

Le competenze che riguardano la relazione tra uomo e AI si formano lentamente. Non emergono in risposta a un incidente, né possono essere improvvisate quando un sistema diventa critico. Come accade per la sicurezza o per la governance, se non vengono pensate prima, arrivano sempre dopo — spesso sotto forma di correzioni costose o di soluzioni emergenziali.

Oggi siamo ancora in una finestra particolare: l’AI è sufficientemente potente da incidere sui comportamenti, ma non ancora così pervasiva da rendere invisibili i suoi effetti. È un momento in cui è ancora possibile progettare i limiti, introdurre frizione dove serve, decidere consapevolmente cosa automatizzare e cosa no. Rimandare questa riflessione significa lasciare che tali decisioni vengano prese implicitamente, per inerzia o per pressione operativa.

C’è poi un secondo elemento, spesso sottovalutato. Molti dei rischi legati alla relazione uomo–AI non si manifestano come incidenti immediati. Non producono alert, non generano downtime, non finiscono nei report di sicurezza. Agiscono nel tempo, erodendo competenze, spostando responsabilità, normalizzando comportamenti. Quando diventano visibili, è spesso troppo tardi per intervenire in modo strutturale.

Educazione, pubblica amministrazione, impresa e contesti critici stanno già entrando in questa fase. L’AI è presente, funziona, viene usata quotidianamente. Continuare a trattare la relazione come un effetto collaterale dell’adozione tecnologica significa accettare una zona grigia sempre più ampia, proprio mentre chiediamo ai sistemi di essere affidabili, trasparenti e responsabili.

Parlarne ora non è un esercizio teorico, né un tentativo di anticipare il futuro. È una scelta progettuale. Significa decidere se vogliamo governare la trasformazione mentre avviene, o limitarci a reagire quando i suoi effetti saranno ormai consolidati.

8. Porta aperta — Le altre figure verranno

Le due figure descritte in questo articolo non esauriscono il campo. Non potrebbero farlo, e non è questo l’obiettivo. L’evoluzione dei sistemi di intelligenza artificiale continuerà ad evolvere con la società e generare nuove competenze, nuovi ruoli e nuove esigenze. Alcune emergeranno in ambito educativo, altre in quello normativo, clinico o culturale.

Sarebbe però un errore cercare di nominarle tutte oggi. Anticipare i ruoli prima che esistano le condizioni operative per sostenerli rischia di produrre etichette premature e responsabilità fittizie. La storia delle trasformazioni tecnologiche mostra che i ruoli più efficaci non nascono da cataloghi, ma da vuoti reali che diventano impossibili da ignorare.

Le due figure qui delineate rispondono a un’esigenza già presente: la necessità di presidiare la relazione tra essere umano e AI, sia nel quotidiano sia nel lungo tempo. Sono un primo passo, non una mappa completa. Servono a rendere visibile un problema che oggi resta spesso implicito e frammentato.

Tenere la porta aperta non significa rinviare le decisioni. Significa riconoscere che la maturità di un campo si misura anche dalla capacità di non saturare il futuro con nomi e ruoli prematuri, concentrandosi invece su ciò che è già necessario rendere governabile.

9. Conclusione — Governare la relazione è una scelta progettuale

L’intelligenza artificiale continuerà a evolvere, a diffondersi e a integrarsi nei processi. La domanda non è se accadrà, ma come accadrà. Lasciare che questa trasformazione si sviluppi per inerzia significa accettare che decisioni cruciali — su delega, autonomia, responsabilità e competenze — vengano prese implicitamente, senza un disegno e senza un presidio.

Guidare l’evoluzione non vuol dire rallentare l’innovazione. Vuol dire renderla governabile: definire ruoli, criteri, limiti operativi; mantenere la reversibilità dell’automazione; costruire continuità e accountability nel tempo. In altre parole, trattare la relazione tra essere umano e AI come ciò che ormai è: una componente strutturale del sistema.

Le due figure delineate in questo articolo non sono un esercizio di futurologia, ma una risposta pratica a un vuoto di responsabilità già presente. Se vogliamo che l’AI resti un supporto e non diventi una sostituzione silenziosa, dobbiamo smettere di considerare la relazione un effetto collaterale e iniziare a progettarla come parte del lavoro.

Perché l’evoluzione arriverà comunque.
La differenza è se ci troverà inermi o responsabili.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

New Bitmap Image 300x300
Presidente di SICYNT -Società Italiana per lo sviluppo della cultura cyber e delle nuove tecnologie. Appassionato di nuove tecnologie, giornalismo e strategia. Autore di numerosi articoli, autore del libro "Il dominio Cyber". Coordinatore della rubrica cyber di Difesa Online. Socio del Centro Studi privacy e nuove tecnologie, del Centro Studi Esercito e di DeComponendisCifris. Colonnello dell'Esercito in riserva.
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoCyber Italia
Al via CyberAngels: il volto umano e tutto al femminile di Red Hot Cyber
Redazione RHC - 12/01/2026

Per troppo tempo abbiamo interpretato la sicurezza informatica esclusivamente come una fredda barriera di firewall e algoritmi. Abbiamo dimenticato che dietro ogni schermo, ogni attacco e ogni innovazione, batte un cuore umano. In un panorama…

Immagine del sitoCyber Italia
Domini italiani esposti su forum underground. C’è anche un ospedale
Luca Stivali - 12/01/2026

Nel monitoraggio quotidiano dei forum underground capita spesso di imbattersi in leak che, almeno a una prima lettura, sembrano “ordinari”: liste di credenziali, accessi a servizi legacy, dump poco strutturati. Il thread “NEW LEAK FTP LOGIN” comparso…

Immagine del sitoCultura
Torvalds chiude l’era dell’hype: nel kernel Linux conta solo la qualità, non l’IA
Redazione RHC - 11/01/2026

Linus Torvalds, il creatore di Linux, ha espresso una posizione ferma e senza mezze misure riguardo al dibattito sull’integrazione e l’uso di strumenti di intelligenza artificiale nella scrittura e revisione del codice del kernel di…

Immagine del sitoCybercrime
Caso AGCOM Cloudflare. Il Cloud è potere: quando la sicurezza nazionale è in mano alle Big Tech
Redazione RHC - 11/01/2026

Nel mondo di oggi la tecnologia non è più un mero strumento di efficienza o comodità, ma una leva geopolitica di primaria importanza. L’accesso a infrastrutture digitali, piattaforme cloud e sistemi di comunicazione non è…

Immagine del sitoCybercrime
Internet c’è, ma non funziona: la nuova trappola dei governi per controllarci tutti
Redazione RHC - 11/01/2026

Immaginate una situazione in cui Internet sembra funzionare, ma i siti web non si aprono oltre la prima schermata, le app di messaggistica sono intermittenti e le aziende sono in continuo cambiamento. Secondo gli autori…