L'intelligenza Artificiale: verrà mai ritenuta un "soggetto giuridico"?
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
970x20 Itcentric
320×100
L’intelligenza Artificiale: verrà mai ritenuta un “soggetto giuridico”?

L’intelligenza Artificiale: verrà mai ritenuta un “soggetto giuridico”?

27 Gennaio 2021 12:21

Autore: Roberto Capra

Data Pubblicazione: 27/01/2021

Le intelligenze artificiali, ovvero riproduzioni artificiali dell’intelligenza umana, ad oggi sono in via di sviluppo e per lo più progettate per compiti singoli. Non vi è alcun dubbio che, nel momento in cui si scrive, queste possano essere considerate come dei meri oggetti sottoposti allo stringente controllo di creatori ed utilizzatori.

Lo sviluppo di queste tecnologie continua incessantemente e si può ritenere ragionevolmente che lo sviluppo ci stia portando verso la “singolarità tecnologica”, cioè quel momento in cui lo sviluppo tecnologico consentirà di produrre macchine che eguaglieranno l’intelligenza umana, ma con il vantaggio di elaborare i dati in entrata (stimoli sensoriali e cognitivi) molto più velocemente rispetto al cervello umano.

02

È verosimile ritenere che, arrivando ad un tale punto di sviluppo tecnologico possano essere create intelligenze artificiali non specializzate in uno o più compiti, ma generaliste e dotate di una propria autonomia di pensiero.

In uno scenario di questo genere risulta quantomai opportuno chiedersi se queste “super-intelligenze” artificiali potranno mai essere in qualche modo equiparate agli esseri umani oppure se continueranno ad essere considerati oggetti, seppur iper-tecnologici.

In tal senso, almeno per quanto concerne l’Unione Europea, sono stati elaborati i primi orientamenti che vedono le IA come un’opportunità di sviluppo che possa mettere al centro la persona, richiedendo – altresì – che queste tecnologie vengano sviluppate in maniera “responsabile”.

L’elemento maggiormente caratterizzante le valutazioni è la consapevolezza

che lo sviluppo delle IA è inarrestabile e che questo avanzamento tecnologico può portare con sé grandi possibilità di progresso. Tale potenziale, tuttavia, non è esente da rischi e – proprio per questo motivo – sono in corso delle valutazioni che non tengono conto degli aspetti strettamente legati alle normative, ma anche degli aspetti etici legati alle IA ed al loro rapporto con l’ambiente circostante.

Partendo da questa consapevolezza, un gruppo di esperti – su incarico dell’UE – ha redatto un “White Paper” sull’intelligenza artificiale, pubblicato il 19 febbraio 2020.

Sin dalle primissime righe, viene evidenziato come le IA possano avere un grande impatto sulla società, ma comportino anche rischi potenziali, i quali dovranno essere il più possibile limitati mediante uno sviluppo rispettoso della dignità umana e della tutela della privacy.

Nell’ambito del paper vengono analizzati numerosi aspetti legati alle IA, sia dal punto di vista economico ed industriale che dal punto di vista normativo il quale – per rispondere alla domanda di inizio articolo – è quello fondamentale.

Nel paper, si riprende una comunicazione della Commissione Europea (COM(2019) 168 final) ove vengono fissati i requisiti fondamentali che dovranno rispettare queste intelligenze:

  • intervento e sorveglianza umani;
  • robustezza tecnica e sicurezza;
  • riservatezza e governance dei dati;
  • trasparenza;
  • diversità;
  • non discriminazione ed equità;
  • benessere sociale e ambientale e responsabilità.

Da questo elenco, è possibile notare come queste tecnologie vengano viste come degli strumenti atti a migliorare la qualità della vita umana, evitando di interferire con essa più dello stretto necessario per lo svolgimento del compito assegnato e rimanendo

costantemente sotto il controllo umano.

Inoltre, queste tecnologie dovranno rispettare il principio di “trasparenza”, inteso non solo come spiegazione esplicita dei compiti ad esse di volta in volta demandati, ma anche come

dichiarazione esplicita di come l’IA tratterà i dati personali eventualmente raccolti durante lo svolgimento del suo lavoro.

Anche nella prosecuzione del documento si parla diffusamente della responsabilità delle azioni (e degli errori) delle IA, non dando mai ad esse una responsabilità diretta, ma chiedendo agli organi competenti di adeguare la normativa per garantire la giusta protezione agli utilizzatori, senza però gravare i produttori di adempimenti o obblighi eccessivamente gravosi.

Viene inoltre sottolineato il fatto che la sicurezza dei prodotti dovrebbe sempre essere garantita, anche in caso di prodotti non statici, ma mutevoli come le IA che possono apprendere con il tempo e l’uso, modificando dunque il comportamento nel tempo.

Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Immagine del sito
Redazione

La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Un bambino, una mutazione, un algoritmo: così l’AI ha sconfitto una malattia mortale
Redazione RHC - 19/12/2025

Solo un anno fa, i medici non potevano dire con certezza se KJ Muldoon sarebbe sopravvissuto al suo primo anno di vita. Oggi sta muovendo i primi passi a casa, con la sua famiglia al suo fianco. Quest...

Immagine del sito
Vulnerabilità critica in FreeBSD: eseguibile codice arbitrario via IPv6
Redazione RHC - 19/12/2025

Una nuova vulnerabilità nei componenti FreeBSD responsabili della configurazione IPv6 consente l’esecuzione remota di codice arbitrario su un dispositivo situato sulla stessa rete locale dell’agg...

Immagine del sito
Navigare nel Dark Web: distinzioni concettuali e il paradosso dell’anonimato
Paolo Galdieri - 19/12/2025

Dopo aver approfondito i delicati equilibri che vincolano gli operatori di Cyber Threat Intelligence(CTI) tra il GDPR e il rischio di Ricettazione, è fondamentale rivolgere l’attenzione a chiunque,...

Immagine del sito
La prima CVE del codice Rust nel kernel Linux è già un bug critico
Redazione RHC - 19/12/2025

Il mondo della tecnologia è un vero e proprio campo di battaglia, dove i geni del coding sfidano ogni giorno i malintenzionati a colpi di exploit e patch di sicurezza. Ecco perché la recente scopert...

Immagine del sito
Ink Dragon alza l’asticella in Europa: ShadowPad su IIS, FinalDraft su Graph API
Sandro Sana - 19/12/2025

Questa notizia ci arriva dal feed News & Research di Recorded Future (Insikt Group): Check Point Research ha documentato una nuova ondata di attività attribuita al threat actor China-linked Ink D...