
Redazione RHC : 30 Novembre 2023 07:55
I ricercatori del RIKEN Center for Brain Science hanno scoperto una caratteristica insolita della percezione umana: una maggiore fiducia nel processo decisionale può essere associata a caratteristiche del rumore percepito.
I risultati dello studio, pubblicati sulla rivista Nature Communications, mostrano che le persone possono sperimentare una fiducia eccessivamente elevata anche quando non ci sono prove oggettive sufficienti.
Questa tendenza è evidente, ad esempio, quando si riconoscono oggetti familiari: spesso le persone li riconoscono immediatamente, anche se la qualità dell’immagine lascia molto a desiderare. Questo divario tra il processo decisionale e i livelli di fiducia è stato a lungo un mistero per gli scienziati.

Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)? Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Hakwan Lau del RIKEN ha osservato: “In teoria, si presume che gli esseri umani siano razionali, ma le prove empiriche spesso mostrano il contrario”. Dallo studio è emerso che tale fiducia nasce dalla percezione di immagini poco chiare o “rumorose”. Ma la scoperta chiave è stata l’influenza della struttura di questo rumore.
“Se l’immagine diventa più espressiva e più rumorosa, pur mantenendo il rapporto segnale-rumore complessivo, diventiamo più sicuri di ciò che vediamo senza in realtà vedere meglio”, afferma Lau.
È interessante notare che l’intelligenza artificiale addestrata su tali dati ha mostrato pregiudizi di fiducia simili a quelli umani. “Una volta padroneggiato, un modello di intelligenza artificiale ci consente di ‘smontarlo’ per una migliore comprensione, a differenza del cervello umano”, spiega Lau.
Questa scoperta evidenzia che i nostri giudizi e la fiducia in essi possono essere fortemente influenzati dalla struttura del rumore percepito, anche quando quel rumore sembra essere casuale.
Redazione
Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...