Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca
Banner Ancharia Desktop 1 1
Crowdtour Promo Banner For Milan V1 320x100 Mobile
L’allineamento dell’intelligenza artificiale: Dove un’AI impara cosa è giusto o sbagliato?

L’allineamento dell’intelligenza artificiale: Dove un’AI impara cosa è giusto o sbagliato?

Sergio Corpettini : 14 Ottobre 2025 22:22

L’altro giorno su LinkedIn mi sono ritrovato a discutere con una persona che si interessava seriamente al tema dell’intelligenza artificiale applicata al diritto. Non era una di quelle conversazioni da bar con buzzword e panico da Skynet: era un confronto vero, con dubbi legittimi.
E in effetti, in Italia, tra titoli sensazionalisti e articoli scritti da chi confonde ChatGPT con HAL 9000, non c’è da stupirsi se regna la confusione.

Il punto che aveva colpito il mio interlocutore era quello dell’allineamento.

“Ma dove impara, un’AI, cosa è giusto e cosa è sbagliato?”


Nuovo Fumetto Betti

CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC

Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? 
Conosci il nostro corso sul cybersecurity awareness a fumetti? 
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. 
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Domanda semplice, ma che apre una voragine. Perché sì, l’AI sembra parlare con sicurezza, ragionare, perfino argomentare – ma in realtà non sa nulla. E capire cosa vuol dire “insegnarle” il giusto o lo sbagliato è il primo passo per non finire a parlarne come se fosse un’entità morale.

Da quella conversazione è nato questo articolo: per provare a spiegare, in modo chiaro e senza troppe formule, cosa significa davvero “allineare” un modello e perché la questione non è solo tecnica, ma inevitabilmente umanistica.

Non sono menti: sono approssimtatori

Va detto subito con chiarezza: un modello linguistico non è una mente morale.

Non ha coscienza, non valuta intenzioni, non possiede intuizioni etiche. Funziona su basi statistiche: analizza enormi collezioni di testi e calcola quali sequenze di parole sono più probabili in un dato contesto.

Questo non significa banalizzare le sue capacità. LLM moderni collegano informazioni su scale che a un singolo lettore richiederebbero settimane di ricerca; possono mettere in relazione fonti lontane e restituire sintesi sorprendenti. Tuttavia, quella che appare come “comprensione” è il risultato di correlazioni e pattern riconosciuti nei dati, non di un processo di giudizio consapevole.

Un esempio utile: un giurista o un filologo che esamina un corpus capisce le sfumature di un termine in base al contesto storicoculturale. Un LLM, analogamente, riconosce il contesto sulla base della frequenza e della co-occorrenza delle parole. Se nei testi prevalgono stereotipi o errori, il modello li riproduce come probabilità maggiori. Per questo parlare di “intelligenza” in senso antropomorfo è fuorviante: esiste una furbizia emergente, efficace sul piano pratico, ma priva di una bussola normativa intrinseca.

L’importante per chi viene da studi umanistici è cogliere questa distinzione: il modello è uno strumento potente per l’analisi e l’aggregazione di informazioni, non un depositario di verità etiche. Capire come funziona la sua meccanica statistica è il primo passo per usarlo con giudizio.

L’allineamento: chi decide cosa è giusto

Quando si parla di “allineamento” in ambito AI, si entra in un territorio che, paradossalmente, è più filosofico che tecnico.
L’allineamento è il processo con cui si tenta di far coincidere il comportamento di un modello con i valori e le regole che consideriamo accettabili. Non riguarda la conoscenza dei dati, ma la regolazione delle risposte. È, in sostanza, una forma di educazione artificiale: non si aggiunge informazione, si corregge il modo in cui viene espressa.

Per capirlo, si può pensare all’addestramento di un cane.
Il cane apprende non perché comprende le ragioni etiche del comando “seduto”, ma perché associa il comportamento corretto a una ricompensa e quello sbagliato a una mancanza di premio (o a una correzione).
Allo stesso modo, un modello linguistico non sviluppa un senso del bene o del male: risponde a un sistema di rinforzi. Se una risposta viene approvata da un istruttore umano, quella direzione viene rafforzata; se viene segnalata come inappropriata, il modello ne riduce la probabilità.
È un addestramento comportamentale su larga scala, ma senza coscienza, intenzione o comprensione morale.

E qui emerge la domanda cruciale: chi decide quali comportamenti “premiare”?
Chi stabilisce che una risposta è giusta e un’altra sbagliata?
La risposta, inevitabilmente, è che a farlo sono esseri umani – programmatori, ricercatori, annotatori – ciascuno con la propria visione del mondo, i propri limiti e i propri bias.
Di conseguenza, ogni modello riflette l’insieme delle scelte di chi lo ha educato, come un cane che si comporta in modo diverso a seconda del padrone.

In questo senso, l’allineamento non è un atto tecnico ma un gesto culturale: incorpora valori, convinzioni e pregiudizi. E anche se dietro ci sono algoritmi e dataset, ciò che definisce la linea di confine tra “accettabile” e “non accettabile” resta, in ultima istanza, una decisione umana.

Il caso del diritto

Se l’allineamento è già complesso in contesti generici, nel campo del diritto diventa quasi paradossale.
Il diritto, per sua natura, non è un insieme statico di regole, ma un linguaggio vivo, stratificato, soggetto a interpretazione continua. Ogni norma è il risultato di compromessi storici, morali e sociali; ogni sentenza è un atto di equilibrio tra principi in tensione.
Un modello di intelligenza artificiale, al contrario, cerca coerenza, simmetria, pattern. E quando incontra la contraddizione – che nel diritto è parte strutturale del discorso – tende a confondersi.

Immaginiamo di addestrare un modello su migliaia di sentenze. Potrà imparare lo stile, la terminologia, persino il modo in cui i giudici argomentano. Ma non potrà mai cogliere il nucleo umano della decisione: il peso del contesto, la valutazione dell’intenzione, la percezione della giustizia oltre la lettera della legge.
Un modello può classificare, sintetizzare, correlare. Ma non può “capire” cosa significhi essere equi, o quando una regola vada piegata per non tradire il suo spirito.

In questo senso, l’applicazione dell’AI al diritto rischia di rivelare più i nostri automatismi mentali che non la capacità della macchina di ragionare. Se la giustizia è un atto interpretativo, allora l’intelligenza artificiale – che opera per pattern – è, per definizione, un cattivo giurista.
Può aiutare, sì: come un assistente che ordina documenti, segnala precedenti, suggerisce formulazioni. Ma non potrà mai essere giudice, perché il giudizio non è una formula: è un atto umano, inevitabilmente umanistico.

Il rischio dell’allineamento culturale

Ogni volta che un’intelligenza artificiale viene “addestrata” a comportarsi in modo socialmente accettabile, stiamo, di fatto, traducendo una visione del mondo in regole di comportamento.
Il problema non è tanto tecnico quanto culturale: chi definisce cosa sia “accettabile”?
In teoria, l’obiettivo è evitare contenuti violenti, discriminatori, ingannevoli. In pratica, però, le decisioni su ciò che un modello può o non può dire vengono prese all’interno di un contesto politico e valoriale ben preciso – spesso anglosassone, progressista, e calibrato su sensibilità molto diverse da quelle europee o italiane.

Il risultato è che l’allineamento tende a uniformare il discorso.
Non perché esista una censura diretta, ma perché le IA imparano a evitare tutto ciò che potrebbe “disturbare”.
E quando la priorità diventa non offendere nessuno, si finisce per produrre un linguaggio sterile, neutro, incapace di affrontare la complessità morale del reale.
Una macchina che “non sbaglia mai” è anche una macchina che non osa, non problematizza, non mette in dubbio.

Questo ha implicazioni profonde.
Un modello linguistico fortemente allineato riflette la cultura di chi lo ha addestrato – e se quella cultura domina l’infrastruttura tecnologica globale, rischia di diventare la lente unica attraverso cui filtriamo il sapere.
In un certo senso, l’allineamento diventa il nuovo colonialismo culturale: invisibile, benintenzionato, ma altrettanto efficace.
Si finisce per credere che l’AI sia neutra proprio nel momento in cui è più condizionata.

Ecco perché discutere di allineamento non significa solo parlare di algoritmi o dati, ma di potere.
Di chi lo esercita, di come lo maschera, e di quanto siamo disposti a delegare la definizione del “giusto” a un sistema che, per sua natura, non comprende ciò che fa – ma lo ripete con una precisione disarmante.

Conclusione: lo specchio del sapere, distorto dal presente

Un modello linguistico di grandi dimensioni non è solo una macchina che parla: è il distillato di secoli di linguaggio umano. Dentro i suoi parametri ci sono libri, articoli, sentenze, discussioni, commenti, echi di pensieri nati in epoche lontane e spesso incompatibili tra loro.
Ogni volta che un LLM formula una risposta, mette in dialogo – senza saperlo – Platone e Reddit, Kant e un thread su Stack Overflow. È una compressione brutale del sapere collettivo, costretto a convivere nello stesso spazio matematico.

Ma qui entra in gioco la parte più inquietante: questo archivio di voci, culture e sensibilità non parla liberamente.
Viene “allineato” a una visione moderna del mondo – quella del momento in cui il modello viene addestrato – che riflette la sensibilità politica, morale e culturale dell’epoca. Ciò che oggi è considerato accettabile o “eticamente corretto” viene imposto come filtro sull’intero corpo del sapere.
Il risultato è che una macchina nata per rappresentare la complessità del pensiero umano finisce per rispecchiare solo la parte di esso che il presente ritiene tollerabile.

Questo processo, per quanto benintenzionato, ha un effetto collaterale profondo:trasforma l’AI in un dispositivo di riscrittura del passato.
Ciò che ieri era conoscenza, oggi può diventare bias; ciò che oggi chiamiamo progresso, domani potrà essere visto come censura. E ogni nuova generazione di modelli cancella, corregge o attenua la voce delle precedenti, filtrando la memoria collettiva con il metro mutevole del “giusto contemporaneo”.

Così, mentre crediamo di dialogare con l’intelligenza artificiale, stiamo in realtà conversando con un frammento della nostra stessa cultura, rieducato ogni due anni a parlare come se il mondo iniziasse oggi.
E questa, forse, è la lezione più importante: non temere che le macchine imparino a pensare come noi, ma che noi si finisca per pensare come loro – lineari, prevedibili, calibrati sull’adesso.

L’AI, dopotutto, non è il futuro: è il presente che si auto-interpreta.
E il vero compito dell’essere umano resta lo stesso di sempre – ricordare, discernere e dubitare, perché solo il dubbio è davvero in grado di superare il tempo.

Immagine del sitoSergio Corpettini
Nomade senza fissa dimora fisica o digitale, curioso esploratore degli anfratti cyber e reali. Cialtrone ad alto rendimento. Occasionalmente sa di cosa sta parlando ma se lo prendete sul serio sarà il primo a deridervi.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Microsoft Patch Tuesday col botto! 175 bug corretti e due zero-day sfruttati
Di Redazione RHC - 14/10/2025

Nel suo ultimo aggiornamento, il colosso della tecnologia ha risolto 175 vulnerabilità che interessano i suoi prodotti principali e i sistemi sottostanti, tra cui due vulnerabilità zero-day attivame...

Immagine del sito
Internet Explorer è “morto”, ma continua a infettare con i suoi bug i PC tramite Edge
Di Luca Galuppi - 14/10/2025

Nonostante Internet Explorer sia ufficialmente fuori supporto dal giugno 2022, Microsoft ha recentemente dovuto affrontare una minaccia che sfrutta la modalità Internet Explorer (IE Mode) in Edge, pr...

Immagine del sito
Jeff Bezos all’Italian Tech Week: “Milioni di persone vivranno nello spazio”
Di Carlo Denza - 14/10/2025

Datacenter nello spazio, lander lunari, missioni marziane: il futuro disegnato da Bezos a Torino. Ma la vera rivelazione è l’aneddoto del nonno che ne svela il profilo umano Anche quest’anno Tori...

Immagine del sito
WhatsApp Web nel mirino! Come funziona il worm che distribuisce il Trojan Bancario
Di Redazione RHC - 14/10/2025

E’ stata individuata dagli analisti di Sophos, una complessa operazione di malware da parte di esperti in sicurezza, che utilizza il noto servizio di messaggistica WhatsApp come mezzo per diffondere...

Immagine del sito
RMPocalypse: Un bug critico in AMD SEV-SNP minaccia la sicurezza del cloud
Di Redazione RHC - 13/10/2025

È stata identificata una vulnerabilità critica nell’architettura di sicurezza hardware AMD SEV-SNP, che impatta i principali provider cloud (AWS, Microsoft Azure e Google Cloud). Tale bug consente...