Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Come determinare la responsabilità dell’intelligenza artificiale

Redazione RHC : 21 Aprile 2024 22:22

L’intelligenza artificiale (AI) è sempre più pervasiva nei settori industriali, assumendo compiti una volta riservati agli esseri umani. Questo progresso solleva interrogativi cruciali sulla responsabilità in caso di errore. In un’intervista esclusiva, il sociologo e direttore scientifico di Labor-IA presso Inria, Yann Fergusonn, offre illuminanti prospettive su questo tema.

L’intelligenza artificiale è stata inizialmente concepita per automatizzare compiti ripetitivi, ma la sua evoluzione ha portato alla nascita delle AI generative, come ChatGPT e Midjourney, capaci di affrontare compiti cognitivi complessi e non ripetitivi. Questo fenomeno, come sottolineato da Fergusonn, ha implicazioni significative per molte professioni, dall’ingegneria alla gestione aziendale.

Fergusonn sottolinea l’importanza di coinvolgere gli utenti finali nella progettazione delle AI generative e di implementare clausole di revisione per adeguarsi all’evoluzione delle pratiche. Inoltre, enfatizza la necessità di promuovere il pensiero critico tra i dipendenti per valutare le proposte dell’IA e scongiurare una dipendenza eccessiva da parte degli utenti.

Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

Quando si tratta di determinare la responsabilità per le azioni compiute da un’IA, Fergusonn suggerisce che, al momento, solo gli esseri umani possono essere considerati responsabili. Tuttavia, questa responsabilità dovrebbe essere condivisa tra l’utente, il manager, il direttore e il fornitore dell’IA. Il sociologo evidenzia anche l’importanza di incoraggiare un ambiente organizzativo che favorisca il pensiero critico e la consapevolezza delle limitazioni dell’IA.

L’espansione delle AI generative presenta notevoli opportunità per l’innovazione e l’efficienza, ma anche sfide riguardo alla responsabilità e alla consapevolezza dei suoi limiti. Attraverso un dialogo costruttivo tra esperti, utenti e decision maker, è possibile sviluppare un quadro efficace per determinare la responsabilità nell’uso dell’intelligenza artificiale e garantire un equilibrio tra l’automazione e il mantenimento del pensiero critico umano.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

La tua VPN è un Trojan! Ecco le 17 app gratuite Made in Cina che ti spiano mentre Google ed Apple ingrassano

“Se non paghi per il servizio, il prodotto sei tu. Vale per i social network, ma anche per le VPN gratuite: i tuoi dati, la tua privacy, sono spesso il vero prezzo da pagare. I ricercatori del ...

Smartwatch, AI e nuovi tool: Kali Linux 2025.2 è il futuro del pentesting

Kali Linux 2025.2 segna un nuovo passo avanti nel mondo del penetration testing, offrendo aggiornamenti che rafforzano ulteriormente la sua reputazione come strumento fondamentale per la sicurezza inf...

Dentro la mente di LockBit: profilazione criminologica di un gruppo ransomware “aziendale”

Nel mondo del cybercrime moderno, dove le frontiere tra criminalità e imprenditoria si fanno sempre più sfumate, il gruppo ransomware LockBit rappresenta un caso di studio affascinante. Atti...

Più le AI diventano come noi, più soffriranno di Social Engineering? Il caso di Copilot che preoccupa

Microsoft 365 Copilot è uno strumento di intelligenza artificiale integrato in applicazioni Office come Word, Excel, Outlook, PowerPoint e Teams. I ricercatori hanno recentemente scoperto che lo ...

CVE-2025-32710: La falla zero-click nei servizi RDP che può causare la totale compromissione del tuo server

Una vulnerabilità di sicurezza critica nei Servizi Desktop remoto di Windows, monitorata con il codice CVE-2025-32710, consente ad aggressori non autorizzati di eseguire codice arbitrario in...