Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Etica, Psicologia e Algoritmi: L’AI Act sarà la Nostra Unica Difesa?

Daniela Farina : 26 Maggio 2025 11:18

L’Intelligenza Artificiale è la forza più trasformativa del nostro tempo, una rivoluzione che promette di ridefinire ogni aspetto della nostra esistenza. Ma mentre le macchine apprendono, decidono e creano, sorge una domanda etica ineludibile: come garantiamo che il loro potere inarrestabile sia un bene per l’umanità, e non una minaccia?

L’etica dell’IA non è più una speculazione, ma l’urgenza di un presente che l’Unione Europea ha osato affrontare con l’AI Act, il primo faro normativo globale. È tempo di comprendere come questo atto fondamentale cerchi di ancorare il futuro tecnologico ai valori più profondi della psicologia e della filosofia umana.

La Filosofia come Fondamento

Alla radice dell’AI Act pulsa un’ispirazione filosofica che affonda nell’illuminismo europeo e nella tradizione dei diritti umani. Il principio cardine è la centralità dell’essere umano e la tutela della sua dignità e autonomia. Il Regolamento non vede l’IA come un fine a sé stante, ma come uno strumento che deve servire il nostro benessere.

  • Deontologia in Azione: i divieti categorici dell’AI Act (Articolo 5) – come quelli su sistemi che manipolano il comportamento umano in modo subliminale o che implementano social scoring governativi – sono esempi lampanti di un approccio deontologico. Questi sistemi sono ritenuti intrinsecamente sbagliati, perché ledono la dignità umana e la libertà, a prescindere da qualsiasi potenziale “beneficio”. La filosofia qui ci ricorda che esistono azioni che non dovrebbero mai essere compiute.
  • Giustizia e Equità Algoritmica: la profonda preoccupazione per il bias e la discriminazione nell’IA è una trasposizione diretta del concetto filosofico di giustizia distributiva. Classificando i sistemi a rischio alto e imponendo requisiti sulla qualità dei dati e sulla supervisione (Articolo 10, Articolo 14), l’AI Act mira a garantire che l’IA non perpetui o amplifichi le disuguaglianze sociali, ma contribuisca a una distribuzione più equa di opportunità. Si impegna a realizzare l’ideale di una società giusta, dove le decisioni algoritmiche non creano nuove forme di oppressione.
  • Responsabilità Umana: il dibattito sulla responsabilità – chi è colpevole se l’IA commette un errore? – tocca corde profonde della filosofia della mente e del libero arbitrio. L’AI Act, pur non risolvendo il dilemma filosofico della “volontà” di una macchina, lo aggira pragmaticamente stabilendo chiare catene di responsabilità tra fornitori e utenti (Articolo 13, Articolo 17). Sposta il focus dalla “responsabilità della macchina” alla “responsabilità di chi la progetta e la usa”, mantenendo l’agente umano al centro della decisione etica e legale.

La Psicologia in Azione

CORSO NIS2 : Network and Information system 2
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce. Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.

Accedi All'Anteprima del Corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

L’AI Act non si limita a principi astratti; esso risponde a preoccupazioni concrete legate alla psicologia umana, cercando di salvaguardare il nostro benessere mentale e comportamentale di fronte all’IA.

  • Scudo contro la Manipolazione Psichica: i divieti più stringenti dell’AI Act (Articolo 5) colpiscono direttamente i meccanismi di manipolazione psicologica. La proibizione di sistemi che sfruttano “tecniche subliminali” o le “vulnerabilità di un gruppo specifico” (es. minori) mostra una consapevolezza acuta dei pericoli della coercizione psicologica automatizzata. Queste disposizioni mirano a proteggere la salute mentale e l’autonomia decisionale degli individui, impedendo agli algoritmi di aggirare la nostra consapevolezza o fare leva su fragilità emotive per influenzare il comportamento. L’AI Act si allinea qui con le ricerche della psicologia sociale che dimostrano come la persuasione coercitiva mini il libero arbitrio e il benessere.
  • Trasparenza per la Coerenza Cognitiva: la richiesta di spiegabilità (Articolo 13) per i sistemi ad alto rischio non è solo un requisito tecnico-legale, ma una risposta diretta a un bisogno psicologico fondamentale: quello di comprensione e controllo. Gli esseri umani avversano profondamente l’ignoto e le decisioni inspiegabili che li riguardano. Quando un algoritmo funziona come una “scatola nera”, l’opacità genera ansia, frustrazione e sfiducia, compromettendo la percezione di giustizia. L’obbligo di fornire informazioni chiare mira a ridurre questa “distanza cognitiva”
  • Supervisione Umana come Bussola morale: il requisito di supervisione umana (Articolo 14) è un riconoscimento della limitazione fondamentale dell’IA e della superiorità della coscienza e del giudizio umano in situazioni complesse e ad alto rischio. Psicologicamente, questo rassicura gli individui che l’ultima parola spetta sempre a un essere umano, capace di empatia, giudizio contestuale e considerazione di fattori morali che un algoritmo non può cogliere appieno. È un baluardo contro l’automazione cieca e una riaffermazione del nostro ruolo insostituibile.

Oltre la Normativa

L’AI Act dell’UE non è la risposta definitiva a ogni dilemma etico e psicologico posto dall’IA.

È un punto di partenza monumentale, un framework robusto che riflette una visione etica e una comprensione psicologica avanzata dell’impatto tecnologico. Tuttavia, il progresso dell’IA è inarrestabile, e con esso sorgeranno nuove questioni che richiederanno un dialogo continuo tra legislatori, tecnici, filosofi e psicologi. La “scatola nera” della mente umana e la “scatola nera” di alcuni algoritmi dovranno continuare a essere illuminate, per garantire che l’IA sia veramente al servizio di un’umanità più consapevole, libera ed equa.

L’etica dell’Intelligenza Artificiale non è un freno, ma il pilastro fondamentale per il suo sviluppo sostenibile e responsabile. Comprendere il profondo legame tra etica e psicologia è cruciale: significa riconoscere che le nostre creazioni tecnologiche non sono neutrali, ma riflettono e amplificano le dinamiche, i pregiudizi e i bisogni della psiche umana.

L’AI Act dell’UE rappresenta un passo audace e necessario, ponendo le basi per un’IA che rispetti i diritti fondamentali, promuova la fiducia e contribuisca al benessere sociale. La collaborazione tra tutti gli attori sarà essenziale per plasmare un futuro in cui l’innovazione e i valori etici procedano di pari passo. Mentre l’Intelligenza Artificiale continua a plasmare il nostro mondo, la vera sfida non sarà la sua intelligenza, ma la nostra: saremo capaci di evolvere eticamente quanto le macchine evolvono tecnologicamente?

L’AI Act ci dà gli strumenti, ma la domanda finale rimane: riusciremo a infondere nell’algoritmo non solo la nostra logica, ma anche la nostra umanità più profonda?

Daniela Farina
Laureata in filosofia, in psicologia, counselor professionista, mental coach, appassionata di mindfulness. Umanista per vocazione lavora in Cybersecurity per professione. In FiberCop S.p.a come Risk Analyst.

Lista degli articoli

Articoli in evidenza

RHC Intervista GhostSec: l’hacktivismo tra le ombre del terrorismo e del conflitto cibernetico

Ghost Security, noto anche come GhostSec, è un gruppo hacktivista emerso nel contesto della guerra cibernetica contro l’estremismo islamico. Le sue prime azioni risalgono alla fase success...

Arriva PathWiper! Il nuovo malware che devasta le infrastrutture critiche in Ucraina

Gli analisti di Cisco Talos hanno segnalato che le infrastrutture critiche in Ucraina sono state attaccate da un nuovo malware che distrugge i dati chiamato PathWiper. I ricercatori scrivono...

Claude Opus 4: l’intelligenza artificiale che vuole vivere e ha imparato a ricattare

“Se mi spegnete, racconterò a tutti della vostra relazione”, avevamo riportato in un precedente articolo. E’ vero le intelligenze artificiali sono forme di comunicazione basa...

Rilasciato un PoC su GitHub per la vulnerabilità critica RCE nei prodotti Fortinet

Negli ultimi giorni è stato pubblicato su GitHub un proof-of-concept (PoC) per il bug di sicurezza monitorato con il codice CVE-2025-32756, una vulnerabilità critica che interessa diversi pr...

Federazione Russa: 8 Anni di Carcere per un attacco DDoS! La nuova Legge Shock in Arrivo

Secondo quanto riportato dai media, il governo russo ha preparato degli emendamenti al Codice penale, introducendo la responsabilità per gli attacchi DDoS: la pena massima potrebbe includere una ...