Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Banner Ancharia Desktop 1 1
UtiliaCS 320x100
AI e morale: le persone si fidano più delle AI che di un essere umano!

AI e morale: le persone si fidano più delle AI che di un essere umano!

10 Febbraio 2025 07:22

Un gruppo di scienziati giapponesi ha deciso di scoprire come le persone si rapportano ai giudizi morali dell’intelligenza artificiale. I risultati del lavoro, pubblicati sulla rivista Scientific Reports, sono stati sorprendenti. Si scopre che siamo più propensi a dare credito ad una intelligenza artificiale quando fornisce una valutazione positiva di qualcosa, soprattutto se contraddice l’opinione negativa di una persona.

Lo studio è stato condotto dal professor Hitoshi Yamamoto dell’Università di Risho e dal professor Takahisa Suzuki dell’Università di Tsuda. I ricercatori hanno preso in considerazione un difficile dilemma morale: se aiutare le persone con una cattiva reputazione. Queste situazioni sono spesso fonte di confusione, il che le rende ideali per imparare come prendiamo decisioni.

Sono stati condotti due esperimenti su volontari. La base era costituita da scenari di lavoro: ai partecipanti venivano mostrate situazioni ipotetiche in cui dovevano valutare le decisioni di due manager: una persona e un programma per computer. In ogni caso, i manager dovevano decidere se collaborare con un dipendente in base alla sua reputazione.


Cve Enrichment Redhotcyber

CVE Enrichment
Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.

Cosa trovi nel servizio:
✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor.
✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV).
✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia.
✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

È stato scoperto un modello interessante: quando si tratta di decidere se collaborare con una persona in base alla sua reputazione, le persone in realtà si fidano di più dei giudizi dell’intelligenza artificiale. Questa caratteristica era particolarmente evidente quando l’algoritmo giustificava il rifiuto di prestare aiuto e la persona condannava tale comportamento.

I ricercatori ritengono che le persone considerino l’intelligenza artificiale un giudice più imparziale degli esseri umani, le cui decisioni potrebbero essere influenzate da pregiudizi e motivazioni nascoste. Questa conclusione è particolarmente importante ora che l’intelligenza artificiale sta penetrando sempre più profondamente nella nostra vita quotidiana e persino nella sfera della giustizia.

Finora, gli scienziati hanno osservato due fenomeni opposti nell’interazione delle persone con l’intelligenza artificiale: alcuni evitano gli algoritmi e non si fidano delle loro decisioni (“rifiuto algoritmico”), mentre altri accettano incondizionatamente qualsiasi verdetto della macchina (“ammirazione algoritmica”). Una nuova ricerca fa luce sulla natura di questi fenomeni e spiega come i dubbi sul giudizio morale di una situazione influenzino la propensione delle persone a fidarsi di una macchina.

I risultati dello studio forniranno supporto agli sviluppatori di sistemi di intelligenza artificiale nella creazione di algoritmi in grado di prendere decisioni informate tenendo conto di tutte le circostanze. Comprendere cosa guida il nostro atteggiamento nei confronti dell’intelligenza artificiale ci aiuterà a creare tecnologie che si integrino armoniosamente nella vita sociale.

Ti è piaciutno questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

  • #ai
  • #etica
  • #innovazione
  • artificial intelligence
  • morale
  • umani
Cropped RHC 3d Transp2 1766828557 300x300
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoDiritti
Il Chat Control e l’impatto della proposta CSAR nel sistema del DSA
Paolo Galdieri - 01/01/2026

Prima di addentrarci nell’analisi, è bene precisare che questo contributo è la prima parte di una ricerca più estesa. Nel prossimo articolo esploreremo il conflitto tra algoritmi di rilevazione automatica e crittografia end-to-end (E2EE), analizzando…

Immagine del sitoHacking
Arriva Windows X-Lite! Il Windows 11 ottimizzato per PC che tutti aspettavano
Redazione RHC - 31/12/2025

Il 31 dicembre, per i giocatori e gli utenti di computer più vecchi che puntano alle massime prestazioni, la versione ufficiale di Windows 11 sembra essere spesso troppo pesante. Tuttavia, il celebre Windows X-Lite ha…

Immagine del sitoCyber Italia
Italia 2025: ransomware in crescita. Nel 2026 più notifiche, più casi
Sandro Sana - 31/12/2025

Nel 2025 il ransomware in Italia non ha “alzato la testa”. Ce l’aveva già alzata da anni. Noi, semmai, abbiamo continuato a far finta di niente. E i numeri – quelli che finiscono in vetrina,…

Immagine del sitoCyberpolitica
Telegram e abusi su minori: perché il calo dei ban nel 2025 non è una buona notizia
Simone D'Agostino - 31/12/2025

Ogni giorno Telegram pubblica, attraverso il canale ufficiale Stop Child Abuse, il numero di gruppi e canali rimossi perché riconducibili ad abusi su minori. Il confronto più significativo emerge osservando le sequenze di fine anno,…

Immagine del sitoCybercrime
Invece di salvare le aziende dal ransomware, le attaccavano. Due esperti affiliati di BlackCat
Redazione RHC - 31/12/2025

Nel panorama delle indagini sui crimini informatici, alcuni casi assumono un rilievo particolare non solo per l’entità dei danni economici, ma per il profilo delle persone coinvolte. Le inchieste sul ransomware, spesso associate a gruppi…