Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Fortinet 970x120px
UtiliaCS 320x100
L’allineamento dell’intelligenza artificiale: Dove un’AI impara cosa è giusto o sbagliato?

L’allineamento dell’intelligenza artificiale: Dove un’AI impara cosa è giusto o sbagliato?

Sergio Corpettini : 14 Ottobre 2025 22:22

L’altro giorno su LinkedIn mi sono ritrovato a discutere con una persona che si interessava seriamente al tema dell’intelligenza artificiale applicata al diritto. Non era una di quelle conversazioni da bar con buzzword e panico da Skynet: era un confronto vero, con dubbi legittimi.
E in effetti, in Italia, tra titoli sensazionalisti e articoli scritti da chi confonde ChatGPT con HAL 9000, non c’è da stupirsi se regna la confusione.

Il punto che aveva colpito il mio interlocutore era quello dell’allineamento.

“Ma dove impara, un’AI, cosa è giusto e cosa è sbagliato?”


RHC0002 CTIP Corso Dark Web Cyber Threat Intelligence

Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". 
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.  
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. 
Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com
Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Domanda semplice, ma che apre una voragine. Perché sì, l’AI sembra parlare con sicurezza, ragionare, perfino argomentare – ma in realtà non sa nulla. E capire cosa vuol dire “insegnarle” il giusto o lo sbagliato è il primo passo per non finire a parlarne come se fosse un’entità morale.

Da quella conversazione è nato questo articolo: per provare a spiegare, in modo chiaro e senza troppe formule, cosa significa davvero “allineare” un modello e perché la questione non è solo tecnica, ma inevitabilmente umanistica.

Non sono menti: sono approssimtatori

Va detto subito con chiarezza: un modello linguistico non è una mente morale.

Non ha coscienza, non valuta intenzioni, non possiede intuizioni etiche. Funziona su basi statistiche: analizza enormi collezioni di testi e calcola quali sequenze di parole sono più probabili in un dato contesto.

Questo non significa banalizzare le sue capacità. LLM moderni collegano informazioni su scale che a un singolo lettore richiederebbero settimane di ricerca; possono mettere in relazione fonti lontane e restituire sintesi sorprendenti. Tuttavia, quella che appare come “comprensione” è il risultato di correlazioni e pattern riconosciuti nei dati, non di un processo di giudizio consapevole.

Un esempio utile: un giurista o un filologo che esamina un corpus capisce le sfumature di un termine in base al contesto storicoculturale. Un LLM, analogamente, riconosce il contesto sulla base della frequenza e della co-occorrenza delle parole. Se nei testi prevalgono stereotipi o errori, il modello li riproduce come probabilità maggiori. Per questo parlare di “intelligenza” in senso antropomorfo è fuorviante: esiste una furbizia emergente, efficace sul piano pratico, ma priva di una bussola normativa intrinseca.

L’importante per chi viene da studi umanistici è cogliere questa distinzione: il modello è uno strumento potente per l’analisi e l’aggregazione di informazioni, non un depositario di verità etiche. Capire come funziona la sua meccanica statistica è il primo passo per usarlo con giudizio.

L’allineamento: chi decide cosa è giusto

Quando si parla di “allineamento” in ambito AI, si entra in un territorio che, paradossalmente, è più filosofico che tecnico.
L’allineamento è il processo con cui si tenta di far coincidere il comportamento di un modello con i valori e le regole che consideriamo accettabili. Non riguarda la conoscenza dei dati, ma la regolazione delle risposte. È, in sostanza, una forma di educazione artificiale: non si aggiunge informazione, si corregge il modo in cui viene espressa.

Per capirlo, si può pensare all’addestramento di un cane.
Il cane apprende non perché comprende le ragioni etiche del comando “seduto”, ma perché associa il comportamento corretto a una ricompensa e quello sbagliato a una mancanza di premio (o a una correzione).
Allo stesso modo, un modello linguistico non sviluppa un senso del bene o del male: risponde a un sistema di rinforzi. Se una risposta viene approvata da un istruttore umano, quella direzione viene rafforzata; se viene segnalata come inappropriata, il modello ne riduce la probabilità.
È un addestramento comportamentale su larga scala, ma senza coscienza, intenzione o comprensione morale.

E qui emerge la domanda cruciale: chi decide quali comportamenti “premiare”?
Chi stabilisce che una risposta è giusta e un’altra sbagliata?
La risposta, inevitabilmente, è che a farlo sono esseri umani – programmatori, ricercatori, annotatori – ciascuno con la propria visione del mondo, i propri limiti e i propri bias.
Di conseguenza, ogni modello riflette l’insieme delle scelte di chi lo ha educato, come un cane che si comporta in modo diverso a seconda del padrone.

In questo senso, l’allineamento non è un atto tecnico ma un gesto culturale: incorpora valori, convinzioni e pregiudizi. E anche se dietro ci sono algoritmi e dataset, ciò che definisce la linea di confine tra “accettabile” e “non accettabile” resta, in ultima istanza, una decisione umana.

Il caso del diritto

Se l’allineamento è già complesso in contesti generici, nel campo del diritto diventa quasi paradossale.
Il diritto, per sua natura, non è un insieme statico di regole, ma un linguaggio vivo, stratificato, soggetto a interpretazione continua. Ogni norma è il risultato di compromessi storici, morali e sociali; ogni sentenza è un atto di equilibrio tra principi in tensione.
Un modello di intelligenza artificiale, al contrario, cerca coerenza, simmetria, pattern. E quando incontra la contraddizione – che nel diritto è parte strutturale del discorso – tende a confondersi.

Immaginiamo di addestrare un modello su migliaia di sentenze. Potrà imparare lo stile, la terminologia, persino il modo in cui i giudici argomentano. Ma non potrà mai cogliere il nucleo umano della decisione: il peso del contesto, la valutazione dell’intenzione, la percezione della giustizia oltre la lettera della legge.
Un modello può classificare, sintetizzare, correlare. Ma non può “capire” cosa significhi essere equi, o quando una regola vada piegata per non tradire il suo spirito.

In questo senso, l’applicazione dell’AI al diritto rischia di rivelare più i nostri automatismi mentali che non la capacità della macchina di ragionare. Se la giustizia è un atto interpretativo, allora l’intelligenza artificiale – che opera per pattern – è, per definizione, un cattivo giurista.
Può aiutare, sì: come un assistente che ordina documenti, segnala precedenti, suggerisce formulazioni. Ma non potrà mai essere giudice, perché il giudizio non è una formula: è un atto umano, inevitabilmente umanistico.

Il rischio dell’allineamento culturale

Ogni volta che un’intelligenza artificiale viene “addestrata” a comportarsi in modo socialmente accettabile, stiamo, di fatto, traducendo una visione del mondo in regole di comportamento.
Il problema non è tanto tecnico quanto culturale: chi definisce cosa sia “accettabile”?
In teoria, l’obiettivo è evitare contenuti violenti, discriminatori, ingannevoli. In pratica, però, le decisioni su ciò che un modello può o non può dire vengono prese all’interno di un contesto politico e valoriale ben preciso – spesso anglosassone, progressista, e calibrato su sensibilità molto diverse da quelle europee o italiane.

Il risultato è che l’allineamento tende a uniformare il discorso.
Non perché esista una censura diretta, ma perché le IA imparano a evitare tutto ciò che potrebbe “disturbare”.
E quando la priorità diventa non offendere nessuno, si finisce per produrre un linguaggio sterile, neutro, incapace di affrontare la complessità morale del reale.
Una macchina che “non sbaglia mai” è anche una macchina che non osa, non problematizza, non mette in dubbio.

Questo ha implicazioni profonde.
Un modello linguistico fortemente allineato riflette la cultura di chi lo ha addestrato – e se quella cultura domina l’infrastruttura tecnologica globale, rischia di diventare la lente unica attraverso cui filtriamo il sapere.
In un certo senso, l’allineamento diventa il nuovo colonialismo culturale: invisibile, benintenzionato, ma altrettanto efficace.
Si finisce per credere che l’AI sia neutra proprio nel momento in cui è più condizionata.

Ecco perché discutere di allineamento non significa solo parlare di algoritmi o dati, ma di potere.
Di chi lo esercita, di come lo maschera, e di quanto siamo disposti a delegare la definizione del “giusto” a un sistema che, per sua natura, non comprende ciò che fa – ma lo ripete con una precisione disarmante.

Conclusione: lo specchio del sapere, distorto dal presente

Un modello linguistico di grandi dimensioni non è solo una macchina che parla: è il distillato di secoli di linguaggio umano. Dentro i suoi parametri ci sono libri, articoli, sentenze, discussioni, commenti, echi di pensieri nati in epoche lontane e spesso incompatibili tra loro.
Ogni volta che un LLM formula una risposta, mette in dialogo – senza saperlo – Platone e Reddit, Kant e un thread su Stack Overflow. È una compressione brutale del sapere collettivo, costretto a convivere nello stesso spazio matematico.

Ma qui entra in gioco la parte più inquietante: questo archivio di voci, culture e sensibilità non parla liberamente.
Viene “allineato” a una visione moderna del mondo – quella del momento in cui il modello viene addestrato – che riflette la sensibilità politica, morale e culturale dell’epoca. Ciò che oggi è considerato accettabile o “eticamente corretto” viene imposto come filtro sull’intero corpo del sapere.
Il risultato è che una macchina nata per rappresentare la complessità del pensiero umano finisce per rispecchiare solo la parte di esso che il presente ritiene tollerabile.

Questo processo, per quanto benintenzionato, ha un effetto collaterale profondo:trasforma l’AI in un dispositivo di riscrittura del passato.
Ciò che ieri era conoscenza, oggi può diventare bias; ciò che oggi chiamiamo progresso, domani potrà essere visto come censura. E ogni nuova generazione di modelli cancella, corregge o attenua la voce delle precedenti, filtrando la memoria collettiva con il metro mutevole del “giusto contemporaneo”.

Così, mentre crediamo di dialogare con l’intelligenza artificiale, stiamo in realtà conversando con un frammento della nostra stessa cultura, rieducato ogni due anni a parlare come se il mondo iniziasse oggi.
E questa, forse, è la lezione più importante: non temere che le macchine imparino a pensare come noi, ma che noi si finisca per pensare come loro – lineari, prevedibili, calibrati sull’adesso.

L’AI, dopotutto, non è il futuro: è il presente che si auto-interpreta.
E il vero compito dell’essere umano resta lo stesso di sempre – ricordare, discernere e dubitare, perché solo il dubbio è davvero in grado di superare il tempo.

  • #etica
  • #tecnologia
  • allineamento AI
  • cultura
  • diritto
  • Intelligenza artificiale
  • modelli linguistici
  • valori umani
Immagine del sitoSergio Corpettini
Nomade senza fissa dimora fisica o digitale, curioso esploratore degli anfratti cyber e reali. Cialtrone ad alto rendimento. Occasionalmente sa di cosa sta parlando ma se lo prendete sul serio sarà il primo a deridervi.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Inviare un’email a un destinatario sbagliato, è da considerarsi data breach?
Di Stefano Gazzella - 25/11/2025

Piaccia o meno, l’invio di un’email a un destinatario errato costituisce una violazione di dati personali secondo il GDPR. Ovviamente, questo vale se l’email contiene dati personali o se altrime...

Immagine del sito
5.000 utenti italiani “freschi” in vendita nelle underground. Scopriamo di cosa si tratta
Di Redazione RHC - 25/11/2025

Nel gergo dei forum underground e dei marketplace del cybercrime, il termine combo indica un insieme di credenziali rubate composto da coppie del tipo email:password. Non si tratta di semplici elenchi...

Immagine del sito
AGI: Storia dell’Intelligenza Artificiale Generale. Dalla nascita alla corsa agli armamenti
Di Redazione RHC - 25/11/2025

Sulla veranda di una vecchia baita in Colorado, Mark Gubrud, 67 anni, osserva distrattamente il crepuscolo in lontananza, con il telefono accanto a sé, lo schermo ancora acceso su un’app di notizie...

Immagine del sito
Anthropic lancia Claude Opus 4.5, il modello di intelligenza artificiale più avanzato
Di Redazione RHC - 24/11/2025

Anthropic ha rilasciato Claude Opus 4.5 , il suo nuovo modello di punta, che, secondo l’azienda, è la versione più potente finora rilasciata e si posiziona al vertice della categoria nella program...

Immagine del sito
La Sorveglianza Digitale sui Lavoratori sta Arrivando: Muovi il Mouse più Veloce!
Di Redazione RHC - 24/11/2025

Il lavoro da remoto, ha dato libertà ai dipendenti, ma con essa è arrivata anche la sorveglianza digitale. Ne abbiamo parlato qualche tempo fa in un articolo riportando che tali strumenti di monitor...