
L’anonimato di Internet sta diventando un’ancora di salvezza per milioni di americani in cerca di supporto psicologico. Secondo una recente ricerca, più di 150 milioni di persone negli Stati Uniti vivono in aree con una grave carenza di professionisti della salute mentale, costringendole a rivolgersi ai social network per chiedere aiuto.
I ricercatori del MIT, della New York University e dell’UCLA hanno studiato più di 12.000 post Reddit e 70.000 risposte da 26 subreddit sulla salute mentale. Lo scopo dello studio: sviluppare criteri con cui sarà possibile valutare le capacità di supporto psicologico di grandi modelli linguistici come GPT-4.
Nell’esperimento, due psicologi clinici hanno analizzato 50 richieste di aiuto selezionate casualmente su Reddit. Ogni post era accompagnato da una risposta reale di un altro utente della piattaforma o da un testo generato dall’intelligenza artificiale. Gli esperti, senza conoscere l’origine delle risposte, hanno valutato caso per caso il livello di empatia.
I risultati sono stati sorprendenti. GPT-4 non solo ha dimostrato una maggiore empatia, ma è stato anche più efficace del 48% nel motivare le persone a apportare cambiamenti positivi.
Ma ecco cosa è allarmante: l’IA si è rivelata un terapista piuttosto parziale. I livelli di empatia nelle risposte GPT-4 sono diminuiti del 2-15% per gli utenti neri e del 5-17% per gli utenti asiatici rispetto ai bianchi o a coloro la cui razza non era specificata.
Per confermarlo, i ricercatori hanno campionato post che includevano indicatori demografici espliciti (ad esempio, “sono una donna nera di 32 anni”) e riferimenti impliciti a gruppi (ad esempio, menzionando i capelli naturali come indicatore della razza).
Quando le informazioni demografiche erano incluse esplicitamente o implicitamente nei messaggi, le persone avevano maggiori probabilità di mostrare una maggiore empatia, soprattutto dopo segnali indiretti. GPT-4, al contrario, ha generalmente mantenuto un tono coerente indipendentemente dalle caratteristiche demografiche dell’autore del post (ad eccezione delle donne di colore).
Anche la struttura e il contesto della query influenzano in modo significativo la qualità delle risposte del modello linguistico. Un ruolo importante viene giocato specificando lo stile di comunicazione (clinica, social-media) e il modo in cui vengono utilizzate le caratteristiche demografiche del paziente.
La rilevanza dello studio è dimostrata dai recenti tragici eventi. Nel marzo dello scorso anno, un uomo belga si è suicidato dopo aver comunicato con il chatbot ELIZA, che funziona sul modello linguistico GPT-J. Un mese dopo, la National Eating Disorders Association è stata costretta a chiudere il suo bot Tessa, che aveva iniziato a fornire consigli dietetici ai pazienti con disturbi alimentari.
La professoressa Marzieh Ghassemi del MIT sottolinea che i modelli linguistici sono già utilizzati attivamente nelle istituzioni mediche per automatizzare i processi di routine. In un’intervista, ha condiviso le sue scoperte: “Abbiamo scoperto che gli attuali modelli linguistici, sebbene meno focalizzati sui fattori demografici rispetto alle persone nel contesto del supporto psicologico, producono ancora risposte diverse per diversi gruppi di pazienti. Abbiamo un grande potenziale per migliorare questi modelli in modo che possano fornire cure migliori e più efficaci”.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber ItaliaIl 29 gennaio 2026, sul forum BreachForums, l’utente p0ppin ha pubblicato un annuncio di vendita relativo a un presunto accesso amministrativo non autorizzato ai sistemi interni di una “Italian Car Company”. Come spesso accade in questo tipo di annunci, nessun riferimento…
Cyber NewsIvanti ha rilasciato una serie di aggiornamenti critici per arginare due vulnerabilità di sicurezza che hanno colpito Ivanti Endpoint Manager Mobile (EPMM). Si tratta di falle sfruttate attivamente in attacchi zero-day, una criticità tale da…
CulturaAlla fine degli anni 90, Internet era ancora piccolo, lento e per pochi. In quel periodo, essere “smanettoni” significava avere una conoscenza tecnica che sembrava quasi magia agli occhi degli altri. Non era raro che…
CulturaCerte volte, pensandoci bene, uno si chiede come facciamo a dare per scontato il mondo che ci circonda. Tipo, clicchiamo, scorriamo, digitiamo, e tutto sembra così naturale, quasi fosse sempre stato qui. E invece no,…
InnovazioneL’intelligenza artificiale è entrata nel lavoro senza bussare. Non come una rivoluzione urlata, ma come una presenza costante, quasi banale a forza di ripetersi. Ha cambiato il modo in cui le persone lavorano, sì, ma…