Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
AI e morale: le persone si fidano più delle AI che di un essere umano!

AI e morale: le persone si fidano più delle AI che di un essere umano!

10 Febbraio 2025 07:22

Un gruppo di scienziati giapponesi ha deciso di scoprire come le persone si rapportano ai giudizi morali dell’intelligenza artificiale. I risultati del lavoro, pubblicati sulla rivista Scientific Reports, sono stati sorprendenti. Si scopre che siamo più propensi a dare credito ad una intelligenza artificiale quando fornisce una valutazione positiva di qualcosa, soprattutto se contraddice l’opinione negativa di una persona.

Lo studio è stato condotto dal professor Hitoshi Yamamoto dell’Università di Risho e dal professor Takahisa Suzuki dell’Università di Tsuda. I ricercatori hanno preso in considerazione un difficile dilemma morale: se aiutare le persone con una cattiva reputazione. Queste situazioni sono spesso fonte di confusione, il che le rende ideali per imparare come prendiamo decisioni.

Sono stati condotti due esperimenti su volontari. La base era costituita da scenari di lavoro: ai partecipanti venivano mostrate situazioni ipotetiche in cui dovevano valutare le decisioni di due manager: una persona e un programma per computer. In ogni caso, i manager dovevano decidere se collaborare con un dipendente in base alla sua reputazione.

È stato scoperto un modello interessante: quando si tratta di decidere se collaborare con una persona in base alla sua reputazione, le persone in realtà si fidano di più dei giudizi dell’intelligenza artificiale. Questa caratteristica era particolarmente evidente quando l’algoritmo giustificava il rifiuto di prestare aiuto e la persona condannava tale comportamento.

I ricercatori ritengono che le persone considerino l’intelligenza artificiale un giudice più imparziale degli esseri umani, le cui decisioni potrebbero essere influenzate da pregiudizi e motivazioni nascoste. Questa conclusione è particolarmente importante ora che l’intelligenza artificiale sta penetrando sempre più profondamente nella nostra vita quotidiana e persino nella sfera della giustizia.

Finora, gli scienziati hanno osservato due fenomeni opposti nell’interazione delle persone con l’intelligenza artificiale: alcuni evitano gli algoritmi e non si fidano delle loro decisioni (“rifiuto algoritmico”), mentre altri accettano incondizionatamente qualsiasi verdetto della macchina (“ammirazione algoritmica”). Una nuova ricerca fa luce sulla natura di questi fenomeni e spiega come i dubbi sul giudizio morale di una situazione influenzino la propensione delle persone a fidarsi di una macchina.

I risultati dello studio forniranno supporto agli sviluppatori di sistemi di intelligenza artificiale nella creazione di algoritmi in grado di prendere decisioni informate tenendo conto di tutte le circostanze. Comprendere cosa guida il nostro atteggiamento nei confronti dell’intelligenza artificiale ci aiuterà a creare tecnologie che si integrino armoniosamente nella vita sociale.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
L’IA non chiede il permesso: sta riscrivendo le regole in fretta e probabilmente male
Massimiliano Brolli - 29/01/2026

L’intelligenza artificiale è entrata nel lavoro senza bussare. Non come una rivoluzione urlata, ma come una presenza costante, quasi banale a forza di ripetersi. Ha cambiato il modo in cui le persone lavorano, sì, ma…

Immagine del sitoCybercrime
Attenzione al “I am not a robot”: la trappola malware che usa Google Calendar
Bajram Zeqiri - 29/01/2026

Una nuova minaccia si aggira, usando la nostra più grande debolezza: l’abitudine. Quante volte, infatti, capita di ritrovarsi a cliccare su caselle di verifica senza pensarci due volte? Ora, pare che i malintenzionati abbiano creato…

Immagine del sitoCybercrime
WinRAR come arma: Google scopre una falla sfruttata da APT e cybercriminali
Bajram Zeqiri - 29/01/2026

La falla di sicurezza in WinRAR, emersa durante la scorsa estate, ha mostrato una diffusione maggiore rispetto alle aspettative. Diverse organizzazioni, sia criminali comuni che gruppi APT finanziati da nazioni, stanno sfruttando attivamente questa vulnerabilità,…

Immagine del sitoCybercrime
Colpo al cuore del cybercrime: RAMP messo offline. Il “tempio” del ransomware cade!
Bajram Zeqiri - 28/01/2026

Il forum RAMP (Russian Anonymous Marketplace), uno dei principali punti di riferimento del cybercrime underground internazionale, è stato ufficialmente chiuso e sequestrato dalle forze dell’ordine statunitensi. La notizia è emersa dopo che il dominio associato…

Immagine del sitoDiritti
La privacy è morta? No, ma è in coma! Cosa celebriamo davvero oggi 28 gennaio
Silvia Felici - 28/01/2026

Oggi è il 28 gennaio e, come ogni anno da un bel po’ di tempo a questa parte, ci ritroviamo a celebrare la Giornata europea della protezione dei dati. È una roba che nasce nel…