Reverse-Centauri: il vero rischio nascosto dell’AI
Red Hot Cyber, il blog italiano sulla sicurezza informatica
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Select language
Cerca
Enterprise BusinessLog 970x120 1
Enterprise BusinessLog 320x200 1
L’AI non ci potenzia: ci usa. Cory Doctorow smonta la grande bugia del 2025

L’AI non ci potenzia: ci usa. Cory Doctorow smonta la grande bugia del 2025

Sandro Sana : 10 Dicembre 2025 07:19

Cory Doctorow lo dice con la lucidità di chi ha studiato per anni le derive del capitalismo digitale: l’AI, così come viene venduta oggi, non mira a potenziare l’essere umano. Mira a usarlo.
Ed è una differenza enorme.

Doctorow parla di centauri e reverse-centauri.

Il centauro è l’immagine romantica della tecnologia che amplifica l’uomo: l’essere metà umano e metà macchina che, grazie all’ibridazione, diventa più competente, più veloce, più efficace.


Christmas Sale

Christmas Sale -40%
𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀 Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Il reverse-centauro, invece, è l’incubo moderno:
la macchina al comando e l’umano relegato al ruolo di appendice correttiva, l’elemento organico necessario solo per:

  • firmare,
  • controllare,
  • prendersi la colpa quando il sistema sbaglia.

E questo, purtroppo, è esattamente il modello verso cui sta correndo il mercato.

La bolla dell’AI: speculazione travestita da innovazione

Doctorow lo dice chiaro: il capitalismo delle piattaforme sopravvive solo se riesce a gonfiare nuove bolle narrative.

  • Il Web.
  • La Crypto.
  • Il Metaverso.
  • Ora l’AI.

Non c’è industria che non stia venendo travolta da questa retorica messianica, dove ogni limite umano è considerato “inefficienza” da eliminare.
Il paradosso?
L’AI non sostituisce il lavoro umano: lo sposta, lo peggiora, lo rende più responsabilizzante e meno controllabile.

Nel 2025, molte aziende non stanno implementando l’AI per aumentare la qualità dei processi, ma per tagliare costi lasciando agli umani l’onere di controllare, correggere e giustificare le allucinazioni della macchina.

  • Un reverse-centauro non produce valore.
  • Produce fragilità.
  • Produce rischio.

E produce una dipendenza cieca da sistemi che non comprendiamo, non controlliamo e che spesso non sappiamo nemmeno verificare.

Il lato tecnico che non piace ai vendor

Oggi l’AI viene integrata dovunque con lo stesso entusiasmo con cui negli anni ’90 si infilava il “tasto Internet” anche sui tostapane.
Il problema è che questa integrazione non è neutrale, lo si vede subito:

  • modelli opachi, non verificabili;
  • pipeline di addestramento che sono una nuova supply chain non auditabile;
  • dati sensibili usati come carburante;
  • automazioni che amplificano l’errore umano invece di ridurlo;
  • supervisione umana trasformata in un atto di responsabilità giuridica più che tecnica.

L’AI “messa così” non riduce il rischio: lo aumenta.
E spesso in maniera non lineare, non intuibile e impossibile da stimare con precisione.

La verità è che gran parte degli LLM e dei sistemi di automazione generativa sono strumenti probabilistici che molti stanno trattando come decision support system deterministici.
Confondere questi due piani è un invito aperto al disastro.

L’impatto socio-economico: quando la macchina decide e l’umano firma

La narrazione del “lavoro potenziato dall’AI” somiglia molto a quella della delocalizzazione industriale degli anni 2000:
nelle promesse era un vantaggio per tutti, nella pratica è stata una compressione salariale mascherata.

Oggi accade lo stesso:
la vera funzione economica dell’AI non è sostituire il lavoro umano, ma dequalificarlo.

Prima un radiologo analizzava 100 immagini, ora ne analizza 100 comunque… ma con in mezzo un algoritmo che sbaglia e che lui deve correggere.
E nel dubbio, la responsabilità legale resta sua.

Lo stesso vale per avvocati, tecnici IT, giornalisti, consulenti, medici, progettisti… e perfino SOC analyst che si trovano sommersi da alert generati da sistemi che non comprendono il contesto operativo.

L’umano non viene potenziato:
viene messo al guinzaglio da una macchina che decide, sbaglia, e lui deve ripulire.

È questo il reverse-centauro in tutta la sua crudezza.

La normativa europea lo ha capito benissimo: l’AI Act non vieta l’AI, vieta gli abusi

La cosa interessante è che l’Europa sta cercando di fermare questa deriva.
Non contro la tecnologia, ma contro i modelli di business tossici che la circondano.

L’AI Act introduce:

  • obblighi di trasparenza,
  • valutazioni d’impatto sul rischio,
  • controlli sulla supply chain,
  • responsabilità chiara su errori e danni,
  • registri obbligatori per gli AI di alto rischio,
  • tracciabilità e auditabilità tecnica.

E accanto all’AI Act arrivano altre norme che chiudono il cerchio:

  • NIS2, che impone governance, processi e supervisione reale degli strumenti.
  • Cyber Resilience Act, che schiaccia i produttori di tecnologia di fronte alle proprie responsabilità.
  • Data Act, che regola accesso, portabilità e uso dei dati.

L’Europa manda un messaggio semplice:
la macchina non può sostituire l’umano nella responsabilità, né usarlo come scudo legale.

Ed è un messaggio che alle big tech non piace per niente.

Il problema non è l’AI. Sono le aspettative tossiche che le costruiamo intorno

In RHC lo diciamo spesso:
la tecnologia non è né buona né cattiva. È neutrale.
Diventa pericolosa quando la usiamo senza capire cosa realmente fa.

L’AI può essere uno strumento potentissimo.
Ma deve restare un mezzo, non un fine.
Un’estensione dell’intelligenza umana, non un commissario politico dell’efficienza.

Perché il giorno in cui smetteremo di essere centauri e inizieremo a essere reverse-centauri, sarà troppo tardi per invertire la rotta.

l’AI deve potenziare l’umano, non sostituirlo. E soprattutto non usarlo.

La vera sfida non è costruire modelli più grandi, più veloci o più “agenti”.
La sfida è costruire sistemi che rispettino il lavoro umano, la sua dignità, la sua intelligenza, i suoi limiti e le sue responsabilità.

Il futuro appartiene alle aziende che sapranno usare l’AI per far crescere le persone, non per stritolarle.
A quelle che sapranno distinguere tra innovazione e speculazione.
A quelle che capiranno che l’automazione non è un dogma, ma un rischio che va gestito con criterio.

Se non vogliamo diventare reverse-centauri, dobbiamo tornare al punto di partenza:
l’AI deve amplificarci.
Non sostituirci.
E tantomeno usarci come stampelle per coprire i suoi limiti.

Perché una macchina che ha bisogno dell’uomo solo per firmare gli errori…
non è progresso.
È un inganno ben confezionato.

  • ai act
  • Automazione
  • cybersecurity
  • Intelligenza artificiale
  • lavoro digitale
Immagine del sitoSandro Sana
Membro del gruppo di Red Hot Cyber Dark Lab e direttore del Red Hot Cyber PodCast. Si occupa d'Information Technology dal 1990 e di Cybersecurity dal 2014 (CEH - CIH - CISSP - CSIRT Manager - CTI Expert), relatore a SMAU 2017 e SMAU 2018, docente SMAU Academy & ITS, membro ISACA. Fa parte del Comitato Scientifico del Competence Center nazionale Cyber 4.0, dove contribuisce all’indirizzo strategico delle attività di ricerca, formazione e innovazione nella cybersecurity.

Lista degli articoli
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sito
Gli attacchi ransomware diminuiscono nel 2024, ma l’economia criminale rimane in espansione
Di Redazione RHC - 09/12/2025

Secondo un rapporto pubblicato di recente dal Financial Crimes Enforcement Network (FinCEN), l’attività globale del ransomware ha raggiunto il picco nel 2023, per poi crollare nel 2024. Questo calo...

Immagine del sito
Vulnus vs. Bug: il Coaching tra maschere pirandelliane e patch di sistema
Di Daniela Linda - 09/12/2025

Siamo connessi, connessi a tutto, iperconnessi. La nostra vita professionale e sociale è scandita da deadline strettissime e da un’asticella che viene continuamente alzata, dobbiamo spingere. Ci im...

Immagine del sito
Il 12 Dicembre a Roma, il summit IISFA: Cybercrime e Intelligenza Artificiale
Di Redazione RHC - 09/12/2025

Il Centro Congressi Frentani ospiterà il 12 dicembre la conferenza “Cybercrime, Artificial Intelligence & Digital Forensics”, l’evento annuale organizzato da IISFA – Associazione Italiana...

Immagine del sito
Quale e-commerce italiano presto sarà compromesso? La vendita degli accessi nel Dark Web
Di Redazione RHC - 09/12/2025

Un nuovo post pubblicato poche ore fa sul forum underground Exploit rivela l’ennesima offerta criminale legata alla vendita di accessi a siti compromessi. L’inserzionista, un utente storico del fo...

Immagine del sito
L’Australia vieta i social media agli adolescenti: dal 10 dicembre divieto al di sotto di 16 anni
Di Redazione RHC - 08/12/2025

In Australia, a breve sarà introdotta una normativa innovativa che vieta l’accesso ai social media per i minori di 16 anni, un’iniziativa che farà scuola a livello mondiale. Un’analoga misura ...