
Redazione RHC : 21 Aprile 2024 22:22
L’intelligenza artificiale (AI) è sempre più pervasiva nei settori industriali, assumendo compiti una volta riservati agli esseri umani. Questo progresso solleva interrogativi cruciali sulla responsabilità in caso di errore. In un’intervista esclusiva, il sociologo e direttore scientifico di Labor-IA presso Inria, Yann Fergusonn, offre illuminanti prospettive su questo tema.
L’intelligenza artificiale è stata inizialmente concepita per automatizzare compiti ripetitivi, ma la sua evoluzione ha portato alla nascita delle AI generative, come ChatGPT e Midjourney, capaci di affrontare compiti cognitivi complessi e non ripetitivi. Questo fenomeno, come sottolineato da Fergusonn, ha implicazioni significative per molte professioni, dall’ingegneria alla gestione aziendale.
Fergusonn sottolinea l’importanza di coinvolgere gli utenti finali nella progettazione delle AI generative e di implementare clausole di revisione per adeguarsi all’evoluzione delle pratiche. Inoltre, enfatizza la necessità di promuovere il pensiero critico tra i dipendenti per valutare le proposte dell’IA e scongiurare una dipendenza eccessiva da parte degli utenti.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Quando si tratta di determinare la responsabilità per le azioni compiute da un’IA, Fergusonn suggerisce che, al momento, solo gli esseri umani possono essere considerati responsabili. Tuttavia, questa responsabilità dovrebbe essere condivisa tra l’utente, il manager, il direttore e il fornitore dell’IA. Il sociologo evidenzia anche l’importanza di incoraggiare un ambiente organizzativo che favorisca il pensiero critico e la consapevolezza delle limitazioni dell’IA.
L’espansione delle AI generative presenta notevoli opportunità per l’innovazione e l’efficienza, ma anche sfide riguardo alla responsabilità e alla consapevolezza dei suoi limiti. Attraverso un dialogo costruttivo tra esperti, utenti e decision maker, è possibile sviluppare un quadro efficace per determinare la responsabilità nell’uso dell’intelligenza artificiale e garantire un equilibrio tra l’automazione e il mantenimento del pensiero critico umano.
Redazione
Il Dipartimento di Giustizia degli Stati Uniti ha accusato i fratelli gemelli Muneeb e Sohaib Akhter di aver cancellato 96 database contenenti informazioni sensibili, tra cui verbali di indagini e doc...

Malgrado le difficoltà geopolitiche significative, il settore degli spyware mercenari resta una minaccia adattabile e persistente; in questo contesto, il noto fornitore Intellexa prosegue l’espansi...

Secondo Eurostat nel 2023 solo il 55% dei cittadini dell’Unione Europea tra i 16 e i 74 anni possedeva competenze digitali almeno di base, con forti differenze tra paesi: si va da valori intorno all...

Cloudflare ha registrato un’interruzione significativa nella mattina del 5 dicembre 2025, quando alle 08:47 UTC una parte della propria infrastruttura ha iniziato a generare errori interni. L’inci...

Una campagna sempre più aggressiva, che punta direttamente alle infrastrutture di accesso remoto, ha spinto gli autori delle minacce a tentare di sfruttare attivamente le vulnerabilità dei portali V...