
Redazione RHC : 10 Febbraio 2025 07:22
Un gruppo di scienziati giapponesi ha deciso di scoprire come le persone si rapportano ai giudizi morali dell’intelligenza artificiale. I risultati del lavoro, pubblicati sulla rivista Scientific Reports, sono stati sorprendenti. Si scopre che siamo più propensi a dare credito ad una intelligenza artificiale quando fornisce una valutazione positiva di qualcosa, soprattutto se contraddice l’opinione negativa di una persona.
Lo studio è stato condotto dal professor Hitoshi Yamamoto dell’Università di Risho e dal professor Takahisa Suzuki dell’Università di Tsuda. I ricercatori hanno preso in considerazione un difficile dilemma morale: se aiutare le persone con una cattiva reputazione. Queste situazioni sono spesso fonte di confusione, il che le rende ideali per imparare come prendiamo decisioni.
Sono stati condotti due esperimenti su volontari. La base era costituita da scenari di lavoro: ai partecipanti venivano mostrate situazioni ipotetiche in cui dovevano valutare le decisioni di due manager: una persona e un programma per computer. In ogni caso, i manager dovevano decidere se collaborare con un dipendente in base alla sua reputazione.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
È stato scoperto un modello interessante: quando si tratta di decidere se collaborare con una persona in base alla sua reputazione, le persone in realtà si fidano di più dei giudizi dell’intelligenza artificiale. Questa caratteristica era particolarmente evidente quando l’algoritmo giustificava il rifiuto di prestare aiuto e la persona condannava tale comportamento.
I ricercatori ritengono che le persone considerino l’intelligenza artificiale un giudice più imparziale degli esseri umani, le cui decisioni potrebbero essere influenzate da pregiudizi e motivazioni nascoste. Questa conclusione è particolarmente importante ora che l’intelligenza artificiale sta penetrando sempre più profondamente nella nostra vita quotidiana e persino nella sfera della giustizia.
Finora, gli scienziati hanno osservato due fenomeni opposti nell’interazione delle persone con l’intelligenza artificiale: alcuni evitano gli algoritmi e non si fidano delle loro decisioni (“rifiuto algoritmico”), mentre altri accettano incondizionatamente qualsiasi verdetto della macchina (“ammirazione algoritmica”). Una nuova ricerca fa luce sulla natura di questi fenomeni e spiega come i dubbi sul giudizio morale di una situazione influenzino la propensione delle persone a fidarsi di una macchina.
I risultati dello studio forniranno supporto agli sviluppatori di sistemi di intelligenza artificiale nella creazione di algoritmi in grado di prendere decisioni informate tenendo conto di tutte le circostanze. Comprendere cosa guida il nostro atteggiamento nei confronti dell’intelligenza artificiale ci aiuterà a creare tecnologie che si integrino armoniosamente nella vita sociale.
Redazione
All’interno del noto Dark Forum, l’utente identificato come “espansive” ha messo in vendita quello che descrive come l’accesso al pannello di amministrazione dell’Agenzia delle Entrate. Tu...

In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...

La recente edizione 2025.4 di Kali Linux è stata messa a disposizione del pubblico, introducendo significative migliorie per quanto riguarda gli ambienti desktop GNOME, KDE e Xfce. D’ora in poi, Wa...

La saga sulla sicurezza dei componenti di React Server continua questa settimana. Successivamente alla correzione di una vulnerabilità critica relativa all’esecuzione di codice remoto (RCE) che ha ...

Un nuovo allarme arriva dal sottobosco del cybercrime arriva poche ore fa. A segnalarlo l’azienda ParagonSec, società specializzata nel monitoraggio delle attività delle cyber gang e dei marketpla...