Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
970x20 Itcentric
UtiliaCS 320x100
AI e morale: le persone si fidano più delle AI che di un essere umano!

AI e morale: le persone si fidano più delle AI che di un essere umano!

Redazione RHC : 10 Febbraio 2025 07:22

Un gruppo di scienziati giapponesi ha deciso di scoprire come le persone si rapportano ai giudizi morali dell’intelligenza artificiale. I risultati del lavoro, pubblicati sulla rivista Scientific Reports, sono stati sorprendenti. Si scopre che siamo più propensi a dare credito ad una intelligenza artificiale quando fornisce una valutazione positiva di qualcosa, soprattutto se contraddice l’opinione negativa di una persona.

Lo studio è stato condotto dal professor Hitoshi Yamamoto dell’Università di Risho e dal professor Takahisa Suzuki dell’Università di Tsuda. I ricercatori hanno preso in considerazione un difficile dilemma morale: se aiutare le persone con una cattiva reputazione. Queste situazioni sono spesso fonte di confusione, il che le rende ideali per imparare come prendiamo decisioni.

Sono stati condotti due esperimenti su volontari. La base era costituita da scenari di lavoro: ai partecipanti venivano mostrate situazioni ipotetiche in cui dovevano valutare le decisioni di due manager: una persona e un programma per computer. In ogni caso, i manager dovevano decidere se collaborare con un dipendente in base alla sua reputazione.


Rhc Conference Sponsor Program 2

Sponsorizza la prossima Red Hot Cyber Conference!

Il giorno Lunedì 18 maggio e martedì 19 maggio 2026 9 maggio 2026, presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà la V edizione della la RHC Conference
Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico. 
Se sei interessato a sponsorizzare l'evento e a rendere la tua azienda protagonista del più grande evento della Cybersecurity Italiana, non perdere questa opportunità. E ricorda che assieme alla sponsorizzazione della conferenza, incluso nel prezzo, avrai un pacchetto di Branding sul sito di Red Hot Cyber composto da Banner più un numero di articoli che saranno ospitati all'interno del nostro portale. 
Quindi cosa stai aspettando? Scrivici subito a [email protected] per maggiori informazioni e per accedere al programma sponsor e al media Kit di Red Hot Cyber.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

È stato scoperto un modello interessante: quando si tratta di decidere se collaborare con una persona in base alla sua reputazione, le persone in realtà si fidano di più dei giudizi dell’intelligenza artificiale. Questa caratteristica era particolarmente evidente quando l’algoritmo giustificava il rifiuto di prestare aiuto e la persona condannava tale comportamento.

I ricercatori ritengono che le persone considerino l’intelligenza artificiale un giudice più imparziale degli esseri umani, le cui decisioni potrebbero essere influenzate da pregiudizi e motivazioni nascoste. Questa conclusione è particolarmente importante ora che l’intelligenza artificiale sta penetrando sempre più profondamente nella nostra vita quotidiana e persino nella sfera della giustizia.

Finora, gli scienziati hanno osservato due fenomeni opposti nell’interazione delle persone con l’intelligenza artificiale: alcuni evitano gli algoritmi e non si fidano delle loro decisioni (“rifiuto algoritmico”), mentre altri accettano incondizionatamente qualsiasi verdetto della macchina (“ammirazione algoritmica”). Una nuova ricerca fa luce sulla natura di questi fenomeni e spiega come i dubbi sul giudizio morale di una situazione influenzino la propensione delle persone a fidarsi di una macchina.

I risultati dello studio forniranno supporto agli sviluppatori di sistemi di intelligenza artificiale nella creazione di algoritmi in grado di prendere decisioni informate tenendo conto di tutte le circostanze. Comprendere cosa guida il nostro atteggiamento nei confronti dell’intelligenza artificiale ci aiuterà a creare tecnologie che si integrino armoniosamente nella vita sociale.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
OpenAI potrebbe aver perso 12 miliardi di dollari nell’ultimo trimestre fiscale
Di Redazione RHC - 01/11/2025

Il rapporto finanziario di Microsoft indica che OpenAI potrebbe aver perso 12 miliardi di dollari nell’ultimo trimestre fiscale. Una spesa nel rapporto sugli utili di Microsoft (517.81, -7.95, -1.51...

Immagine del sito
La corsa alla cybersicurezza è partita e l’Italia corre con le scarpe legate
Di Fabrizio Saviano - 01/11/2025

Negli ultimi anni la cybersecurity è balzata in cima all’agenda di imprese, istituzioni e pubblica amministrazione. Ma se guardiamo ai numeri, l’Italia sembra ancora correre con le scarpe legate:...

Immagine del sito
Il furto al Louvre: quando i ladri insegnarono il Physical Pen Test a tutto il mondo
Di Luca Errico - 01/11/2025

L’evento che ha scosso il mondo il 19 ottobre 2025 non è stato un disastro naturale o un crollo finanziario, ma il clamoroso furto dei gioielli di Napoleone dal Museo del Louvre. Al di là del valo...

Immagine del sito
Dal 12 novembre in Italia scatta la verifica dell’età per siti porno. Cosa cambia
Di Redazione RHC - 31/10/2025

A partire da martedì 12 novembre 2025 entreranno in vigore le nuove disposizioni dell’Autorità per le Garanzie nelle Comunicazioni (AGCOM) che impongono un sistema di verifica dell’età per acce...

Immagine del sito
AzureHound: lo strumento “legittimo” per gli assalti al cloud
Di Luca Galuppi - 31/10/2025

AzureHound, parte della suite BloodHound, nasce come strumento open-source per aiutare i team di sicurezza e i red team a individuare vulnerabilità e percorsi di escalation negli ambienti Microsoft A...