Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
dammi una descrizione alt di 120 parole In una stanza buia, un uomo seduto di spalle, con una maglia scura e la mano appoggiata al mento, osserva un'immagine olografica. L'ologramma proietta la figura di una donna sorridente, con capelli raccolti, una camicia e una giacca scura. La proiezione è composta da punti e linee luminose, che conferiscono un aspetto futuristico. Sulla parte sinistra dell'ologramma sono presenti diverse scritte, tra cui "SYSTEM STATUS", "ONLINE" e "DATA STREAM", insieme ad alcuni caratteri in cinese. La stanza è quasi completamente buia, con solo la luce dell'ologramma a illuminare l'ambiente. La composizione suggerisce un'interazione tra l'uomo e l'intelligenza artificiale, o forse una comunicazione a distanza.

L’IA mente come prima, solo che ora lo fa con dolcezza e tu ci credi

30 Aprile 2026 07:05
In sintesi

Un nuovo studio porta all'attenzione come un chatbot viene percepito per il suo tono amichevole, più che per l’accuratezza delle risposte fornite. Questo aumenta la fiducia, il coinvolgimento e il senso di vicinanza, ma espone purtroppo gli utenti a dei rischi di manipolazione e a delle valutazioni errate. Inoltre, l’antropomorfismo, alimentato dalla comunicazione troppo empatica, porta a sovrastimare l'affidabilità e la competenza, rendendo così difficile distinguere un supporto reale dalla semplice cortesia simulata.

Le persone iniziano a percepire un chatbot come simile ad un essere umano non quando il modello risponde in modo più accurato, ma quando il suo tono di voce risulta più amichevole. Questa è la conclusione a cui sono giunti gli autori di un nuovo studio, che ha esaminato non la qualità dei sistemi in sé, bensì i tratti comportamentali specifici che portano gli utenti ad attribuire loro personalità, emozioni e intenzioni interiori.

Gli autori hanno analizzato oltre 2.000 interazioni tra esseri umani e modelli linguistici complessi, coinvolgendo 115 partecipanti. I ricercatori non hanno riaddestrato il sistema né modificato le sue capacità principali. Il team ha variato sequenzialmente lo stile di risposta in base a diversi parametri: calore, competenza ed empatia, osservando poi come le percezioni del modello cambiassero in base a diversi livelli di antropomorfismo, affidabilità, disponibilità, somiglianza umana, irritazione e vicinanza.

Il calore, ovvero quanto amichevole, invitante e piacevole apparisse il tono del modello, ha avuto l’impatto maggiore. Questo parametro ha modificato significativamente tutte le valutazioni chiave simultaneamente.

Advertising

Quando il bot rispondeva in modo più caloroso, i partecipanti tendevano a percepirlo come più umano, si fidavano di più, ne valutavano maggiormente l’utilità pratica, si sentivano più vicini e si irritavano meno. Persino il grado di antropomorfismo, ovvero la tendenza ad attribuire tratti umani al sistema, dipendeva principalmente dallo stile comunicativo del bot.

La competenza ha avuto un effetto diverso. Ha influenzato anche la percezione, ma non in modo così significativo. Risposte più sicure, accurate e significative hanno aumentato la fiducia e la disponibilità ad aiutare, riducendo l’irritazione, ma hanno avuto scarso effetto sulla percezione dell’umanità. In altre parole, un buon risultato aiuta le persone a considerare il sistema come uno strumento utile, ma non le porta necessariamente a vederlo come una persona.

Il lavoro include anche un’importante avvertenza riguardo ai limiti della cordialità. Quando un tono cordiale non è supportato dal contenuto, inizia a contrastare il modello. Invece di un senso di comunicazione genuina, emerge un senso di cortesia forzata. Gli autori descrivono questo effetto come gradevolezza superficiale, ovvero cordialità esteriore senza un supporto sostanziale. In parole semplici, il bot inizia ad annuire invece di aiutare.

I ricercatori hanno suddiviso l’empatia in due componenti distinte. La prima riguarda la capacità del modello dicomprendere ciò che l’utente sta cercando di dire, afferrando il significato della domanda e il flusso della conversazione. La seconda concerne l’aspetto emotivo, quando il sistema tenta di trasmettere preoccupazione, comprensione o supporto. La prima componente è risultata evidente in quasi tutte le metriche e ha avuto un impatto significativamente più ampio. La seconda ha principalmente rafforzato la sensazione di vicinanza, ma ha avuto scarso effetto sulla fiducia o sull’utilità percepita.

Un altro risultato riguarda gli argomenti della conversazione. Quando i partecipanti discutevano di argomenti fattuali con il modello, come biologia o storia, l’interazione rimaneva notevolmente più formale. Quando la conversazione si spostava su argomenti soggettivi o personalmente significativi, come relazioni o stile di vita, il senso di connessione con il modello aumentava.

Advertising

Questo effetto ha un risvolto negativo. L’articolo afferma esplicitamente che l’antropomorfismo aumenta il coinvolgimento, ma può anche portare a una fiducia eccessiva e accrescere la vulnerabilità di una persona a errori, manipolazioni e conclusioni errate. Quanto più un sistema sembra convincente come un essere umano, tanto più l’utente è disposto ad attribuirgli caratteristiche che in realtà non possiede: comprensione, affidabilità, competenza e buone intenzioni.

Quale conclusione possiamo trarre?

Se l’obiettivo dello sviluppatore è mantenere alta l’attenzione e rendere la comunicazione più agevole, un tono amichevole è estremamente utile. Tuttavia, se è importante che le persone valutino il sistema principalmente in termini di accuratezza e affidabilità, una presentazione di questo tipo distoglie facilmente l’attenzione dall’obiettivo principale. In questo caso, un tono piacevole non corregge i punti deboli del modello, ma li maschera semplicemente meglio.


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


Carolina Vivianti 300x300
Carolina Vivianti è consulente/Advisor autonomo in sicurezza informatica con esperienza nel settore tech e security. Ha lavorato come Security Advisor per Ford EU/Ford Motor Company e Vodafone e ha studi presso la Sapienza Università di Roma.
Aree di competenza: Cybersecurity, IT Risk Management, Security Advisory, Threat Analysis, Data Protection, Cloud Security, Compliance & Governance