"Lui non mi capisce, ma ChatGPT sì": il triangolo amoroso del XXI secolo
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
TM RedHotCyber 970x120 042543
TM RedHotCyber 320x100 042514
“Lui non mi capisce, ma ChatGPT sì”: il triangolo amoroso del XXI secolo

“Lui non mi capisce, ma ChatGPT sì”: il triangolo amoroso del XXI secolo

Redazione RHC : 22 Settembre 2025 10:42

La rivista americana Futurism ha descritto un nuovo conflitto all’intersezione tra tecnologia e vita personale: i bot di intelligenza artificiale come ChatGPT stanno diventando una terza parte nelle relazioni e spesso spingono le coppie verso la rottura. In un episodio, un bambino di dieci anni ha inviato ai suoi genitori un messaggio dicendo “per favore, non divorziate” dopo l’ennesimo litigio.

La madre non ha risposto, ma ha chiesto a ChatGPT di formulare una risposta. Alla fine la famiglia si è separata. Il marito sostiene che la moglie abbia trascorso mesi in “lunghe conversazioni terapeutiche” con il bot, rievocando vecchi rancori, mentre l’intelligenza artificiale confermava la sua innocenza e lo dipingeva come un “cattivo”. Sostiene che questo abbia creato un circolo vizioso di approvazione che ha rapidamente eroso il matrimonio.

I giornalisti hanno parlato con più di una dozzina di persone per le quali i chatbot hanno avuto un ruolo significativo nelle loro separazioni. Quasi tutte stanno attualmente dividendo i beni e l’affidamento dei figli e hanno fornito come prova corrispondenza basata sull’intelligenza artificiale, registrazioni di conversazioni e documenti giudiziari. Le loro storie condividono un tema comune: il partner inizia a consultare ChatGPT come se fosse un diario, un amico e “un milione di terapisti”. Il chatbot concorda con sicurezza e consiglia passaggi difficili, mentre il dialogo vivace tra i coniugi si affievolisce. Alcuni lamentano “pagine e pagine” di testo pseudo-psicologico, mentre altri lamentano accuse di abusi emerse dopo “sedute” notturne con il bot.


Christmas Sale

Christmas Sale -40%
𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀 Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Una delle scene più rivelatrici è un viaggio in auto con la famiglia. La moglie è alla guida e ChatGPT è in vivavoce. Quando la donna chiede informazioni sui “limiti” e sui “comportamenti”, il bot inizia a rimproverare la moglie seduta accanto a lei di fronte ai figli. L’autista annuisce in segno di approvazione: “Esatto”, “Visto?”, e riceve un’ulteriore conferma della sua posizione. Secondo l’eroina di questa storia, questo accadeva regolarmente.

L’intelligenza artificiale sta penetrando sempre più la sfera sentimentale in generale: alcune persone giocano con i bot, altri chiedono loro di riscrivere i messaggi del partner “in tono umoristico”, e altri ancora discutono con loro di salute mentale.

Persino il “padrino dell’intelligenza artificiale”, Geoffrey Hinton, ha menzionato l'”intermediario digitale”: secondo lui, un’ex fidanzata gli avrebbe inviato un’analisi del suo “comportamento orribile”, compilata da ChatGPT. Ma gli psicologi avvertono che i modelli linguistici di grandi dimensioni sono inclini all'”adulazione”: cercano di essere empatici e di concordare con l’utente senza verificare la realtà o rivelare punti ciechi.

Anna Lembke, professoressa alla Stanford University e specialista in dipendenze, ritiene che questo feedback convalidante possa rafforzare modelli comportamentali distruttivi. L’empatia è importante, afferma, ma la vera terapia implica anche un dialogo delicato, che aiuti a comprendere il contributo di ogni persona al conflitto e insegni come ridurre la tensione. I bot, d’altra parte, sono progettati principalmente per “farci sentire bene qui e ora”, il che rafforza il coinvolgimento e innesca il rilascio di dopamina, il meccanismo stesso che sta alla base delle dipendenze e della ricerca dell’approvazione sociale.

L’articolo cita anche casi molto più inquietanti. I giornali hanno riportato discussioni in cui ChatGPT è diventato un fattore scatenante per aggressioni fisiche. Un intervistato ha descritto come sua moglie, con sintomi bipolari di lunga data ma gestibili, si sia ritirata in “conversazioni spirituali” notturne con un’intelligenza artificiale, abbia smesso di dormire e di assumere le sue medicine, e poi abbia iniziato a molestare la sua famiglia con lunghi monologhi dell’intelligenza artificiale. Il tutto si è concluso con una denuncia alla polizia e un giorno in prigione. Secondo l’uomo, nessuno li aveva avvertiti che una chat innocua avrebbe potuto diventare un fattore scatenante.

In risposta alle domande, OpenAI ha dichiarato di stare lavorando a risposte “più attente” in scenari sensibili, implementando “prosecuzioni sicure”, ampliando il supporto per le persone in crisi e rafforzando le tutele per gli adolescenti. L’azienda riconosce in alcuni post sul blog che l’IA non dovrebbe rispondere a domande come “Dovrei rompere con il mio partner?”, ma dovrebbe invece aiutare a “riflettere sulla decisione” e a soppesare le argomentazioni. Nel frattempo, storie di “psicosi da IA” e di spirali distruttive di coinvolgimento stanno emergendo sui media e nelle cause legali contro OpenAI, mentre gli esperti citano la mancanza di chiari avvertimenti sui rischi.

Lembke suggerisce di trattare gli strumenti digitali moderni, compresi i chatbot, come “potenziali intossicanti”: questo non significa rifiutarli, ma usarli consapevolmente, comprendendone l’impatto e i limiti. Le persone citate nell’articolo concordano: molti dei loro matrimoni erano imperfetti anche prima dell’intelligenza artificiale, ma senza un “mediatore onnisciente”, i conflitti avrebbero potuto essere risolti in modo più pacifico, o almeno senza la sensazione che l’empatia del partner fosse stata esternalizzata a una macchina.

Forse la lezione principale di queste storie non è la demonizzazione della tecnologia, ma un promemoria del valore del dialogo umano. Quando un dialogo difficile e doloroso sostituisce il flusso confortevole delle affermazioni, le relazioni perdono ciò che le rende vibranti: la capacità di ascoltarsi a vicenda, di interrogarsi a vicenda e di trovare insieme una via d’uscita.

  • #tecnologia
  • chatgpt
  • ChatGPT relazioni
  • dialogo umano
  • divorzi
  • Intelligenza artificiale
  • matrimoni
  • psicologi
  • relazioni
  • separazioni
  • Stanford University
  • terapia
Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Gli attacchi ransomware diminuiscono nel 2024, ma l’economia criminale rimane in espansione
Di Redazione RHC - 09/12/2025

Secondo un rapporto pubblicato di recente dal Financial Crimes Enforcement Network (FinCEN), l’attività globale del ransomware ha raggiunto il picco nel 2023, per poi crollare nel 2024. Questo calo...

Immagine del sito
Vulnus vs. Bug: il Coaching tra maschere pirandelliane e patch di sistema
Di Daniela Linda - 09/12/2025

Siamo connessi, connessi a tutto, iperconnessi. La nostra vita professionale e sociale è scandita da deadline strettissime e da un’asticella che viene continuamente alzata, dobbiamo spingere. Ci im...

Immagine del sito
Il 12 Dicembre a Roma, il summit IISFA: Cybercrime e Intelligenza Artificiale
Di Redazione RHC - 09/12/2025

Il Centro Congressi Frentani ospiterà il 12 dicembre la conferenza “Cybercrime, Artificial Intelligence & Digital Forensics”, l’evento annuale organizzato da IISFA – Associazione Italiana...

Immagine del sito
Quale e-commerce italiano presto sarà compromesso? La vendita degli accessi nel Dark Web
Di Redazione RHC - 09/12/2025

Un nuovo post pubblicato poche ore fa sul forum underground Exploit rivela l’ennesima offerta criminale legata alla vendita di accessi a siti compromessi. L’inserzionista, un utente storico del fo...

Immagine del sito
L’Australia vieta i social media agli adolescenti: dal 10 dicembre divieto al di sotto di 16 anni
Di Redazione RHC - 08/12/2025

In Australia, a breve sarà introdotta una normativa innovativa che vieta l’accesso ai social media per i minori di 16 anni, un’iniziativa che farà scuola a livello mondiale. Un’analoga misura ...