Mi Ami, Non mi Ami? A scusa, sei un Chatbot!
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
LECS 970x120 1
Banner Ransomfeed 320x100 1
Mi Ami, Non mi Ami? A scusa, sei un Chatbot!

Mi Ami, Non mi Ami? A scusa, sei un Chatbot!

Redazione RHC : 1 Luglio 2025 19:42

Le persone tendono a essere più comprensive nei confronti dei chatbot se li considerano interlocutori reali. Questa è la conclusione a cui sono giunti gli scienziati dell’Università Ebraica di Gerusalemme dopo una serie di studi su larga scala pubblicati sulla rivista Nature Human Behaviour.

In nove esperimenti, i ricercatori hanno reclutato più di 6.200 partecipanti. Tutti hanno interagito con chatbot basati su modelli linguistici di grandi dimensioni (LLM), ma alcuni partecipanti credevano di parlare con un essere umano. Questo è stato un fattore chiave nel modo in cui percepivano il supporto e l’empatia del loro interlocutore.

Come osservato nell’articolo, i modelli linguistici moderni dimostrano una notevole capacità di comprendere i contesti sociali ed emotivi. Non solo sono in grado di analizzare lo stato emotivo dell’interlocutore, ma anche di imitare abilmente espressioni di cura, compassione e sostegno.


Cve Enrichment Redhotcyber

CVE Enrichment
Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.

Cosa trovi nel servizio:
✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor.
✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV).
✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia.
✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Gli autori dello studio sottolineano che, nonostante le capacità empatiche oggettive dell’IA, le persone sono molto più propense a rifiutare il supporto emotivo se sanno di comunicare con una macchina. I soggetti a cui è stato detto che le loro risposte erano state scritte da un essere umano, anche se ciò non era vero, hanno valutato i messaggi come più empatici e di supporto. Erano anche disposti ad aspettare più a lungo per una risposta, credendo che fosse stata preparata da una persona reale.

Allo stesso tempo, i dati hanno mostrato che la convinzione che l’IA fosse coinvolta nella preparazione delle risposte presumibilmente umane riduceva la percezione dell’empatia. Questo effetto persisteva indipendentemente dalla lunghezza delle risposte, dalla velocità con cui venivano ricevute e dallo specifico modello di IA utilizzato nell’esperimento.

Inoltre, lo studio ha scoperto che le persone scelgono sistematicamente l’interazione umana rispetto all’intelligenza artificiale quando hanno bisogno di supporto emotivo, dimostrando quanto sia radicata la necessità di un elemento umano quando si discutono argomenti personali e delicati.

Il rapporto evidenzia anche un interessante paradosso: in termini di accuratezza formale e velocità di elaborazione delle informazioni, l’IA è in grado di comprendere meglio lo stato emotivo di una persona. A differenza degli esseri umani, che potrebbero trovare noiosa l’empatia, l’IA riconosce istantaneamente i segnali emotivi e non sperimenta affaticamento o esaurimento.

Tuttavia, gli esseri umani hanno ancora difficoltà a percepire tale “empatia” da parte delle macchine. Barriere psicologiche e pregiudizi giocano un ruolo chiave, anche quando l’IA dimostra oggettivamente un alto livello di empatia.

È interessante notare che un altro studio ha precedentemente osservato che l’intelligenza artificiale può mostrare segnali di ansia. Nello specifico, il modello GPT-4 ha mostrato un aumento dei punteggi di ansia , misurati mediante test psicologici standard, dopo aver lavorato con scenari traumatici.

Questi risultati sollevano seri interrogativi sulla natura dell’intelligenza artificiale, sui suoi limiti e sul futuro delle interazioni uomo-macchina in situazioni emotivamente intense. Nonostante gli evidenti progressi tecnologici, la percezione pubblica rimane più conservatrice e la fiducia nell’IA è limitata.

  • chatbot
  • empatia artificiale
  • empatia umana
  • empatia umana chatbot
  • futuro dell'IA
  • Intelligenza artificiale
  • interazione uomo-macchina
  • limiti dell'IA
  • psicologia dell'IA
  • relazioni uomo-macchina
  • supporto emotivo
Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Rilasciata FreeBSD 15.0: ecco le novità e i miglioramenti della nuova versione
Di Redazione RHC - 06/12/2025

Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Immagine del sito
React2Shell: due ore tra la pubblicazione dell’exploit e lo sfruttamento attivo
Di Redazione RHC - 06/12/2025

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Immagine del sito
Cloudflare dichiara guerra a Google e alle AI. 416 miliardi di richieste di bot bloccate
Di Redazione RHC - 05/12/2025

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Immagine del sito
React2Shell = Log4shell: 87.000 server in Italia a rischio compromissione
Di Redazione RHC - 05/12/2025

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Immagine del sito
Cloudflare di nuovo in down: disservizi su Dashboard, API e ora anche sui Workers
Di Redazione RHC - 05/12/2025

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...