Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Crowdstriker 970×120
Enterprise BusinessLog 320x200 1
Come l’Intelligenza Artificiale sta trasformando la psicologia: dalle chatbot terapeutiche alla realtà virtuale

Come l’Intelligenza Artificiale sta trasformando la psicologia: dalle chatbot terapeutiche alla realtà virtuale

Daniela Farina : 27 Aprile 2024 08:42

L’intelligenza artificiale (IA) ha rivoluzionato il nostro modo di vivere, lavorare e interagire. Negli ultimi decenni, questa tecnologia ha compiuto passi da gigante, trasformando molteplici settori, tra cui quello della psicologia. La psicologia e l’intelligenza artificiale sono interconnesse. Entrambe fanno riferimento alla sfera cognitiva, al comportamento e alle emozioni.

Vediamo insieme tale legame, dandone una definizione e spiegandone le conseguenze.

L’Intelligenza Artificiale negli anni

La locuzione IA (Artificial Intelligence) negli anni è ormai entrata nel lessico comune anche se non è scontato che tutti coloro che la usano sappiano realmente cosa sia. Infatti nel mondo caotico di oggi è facile dimenticare che l’IA ha preso forma in anni lontani: era il 1956 quando John McCarthy, ricercatore informatico e studioso di scienze cognitive, propose di applicare idee e concetti matematici per gestire attività strutturate e finalizzate. Ma già nel 1950 Alan Turing pubblicò nella rivista Mind un famoso articolo in cui, tra l’altro, si domandava se un giorno le macchine potessero giungere a… pensare!


Enterprise

Prova la Demo di Business Log! Adaptive SOC italiano
Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro. Scarica ora la Demo di Business Log per 30gg


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Da allora ad oggi molto e cambiato.

L’Intelligenza Artificiale come assistente clinico

Le tecnologie basate sull’IA sono utilizzate per analizzare grandi quantità di dati psicologici, identificare pattern e fornire predizioni sui comportamenti umani. Algoritmi avanzati sono impiegati nella diagnosi dei disturbi mentali, nella valutazione del rischio suicidio e nell’adattamento dei trattamenti in base alle esigenze specifiche del paziente.

Ecco alcuni esempi di come la psicologia e l’IA stanno collaborando:

Sviluppo di chatbot terapeutici: l’IA permette di creare chatbot in grado di simulare una conversazione con un terapeuta, offrendo supporto psicologico a persone con ansia, depressione o altri disturbi.

Analisi del linguaggio naturale per la diagnosi: l’IA può essere utilizzata per analizzare il linguaggio dalle persone e per identificare potenziali problemi di salute mentale.

Sviluppo di sistemi di realtà virtuale per la terapia: la realtà virtuale (VR) può essere utilizzata per creare ambienti terapeutici sicuri e controllati per aiutare le persone a superare fobie, traumi o altri disturbi. La VR può essere utilizzata per:

  • L’esposizione graduale a situazioni temute
  • La riabilitazione cognitiva
  • La gestione del dolore

Brain-computer interface (BCI):le BCI sono dispositivi che permettono di controllare un computer con la mente. Le BCI possono essere utilizzate per:

  • Ripristinare le funzioni motorie:
  • Comunicare per persone con disabilità di parola
  • Migliorare le prestazioni cognitive

La sicurezza dei dati

L’idea di poter contare su metodi rivoluzionari, che contribuiscono al nostro benessere, può sembrare meravigliosa. Tuttavia, comporta anche problemi che dobbiamo risolvere se vogliamo che tali metodi si integrino ulteriormente nel panorama quotidiano. La sicurezza nei chatbot psicologici è fondamentale per proteggere i dati sensibili degli utenti, prevenire danni e garantire un utilizzo etico e trasparente.

Pericoli dell’IA

Data breach e privacy: in quanto i chatbot raccolgono e analizzano dati sensibili sui pazienti, come cartelle cliniche, colloqui e questionari. La compromissione di questi dati potrebbe causare gravi danni alla privacy e alla reputazione dei pazienti e dei professionisti. È fondamentale che questi dati siano protetti e utilizzati solo per gli scopi previsti.

Bias e discriminazione algoritmica: gli algoritmi di IA potrebbero essere intrinsecamente viziati da pregiudizi inconsci, presenti nei dati su cui sono stati allenati. Questo potrebbe portare a diagnosi errate, discriminazioni nella scelta dei trattamenti e rafforzamento di stereotipi negativi.

Mancanza di trasparenza e interpretabilità: è difficile comprendere le decisioni prese dai sistemi.

Cybersecurity e malware:i sistemi di IA possono essere vulnerabili ad attacchi informatici che potrebbero compromettere la loro integrità e funzionalità, con gravi conseguenze per la cura dei pazienti.

Ordine degli Psicologi

Le persone che si rivolgono ai professionisti del settore superano l’emozione primaria della paura di aprirsi con uno sconosciuto, solo perchè sanno che il setting è protetto dal segreto professionale.

Articolo 11

“lo psicologo è strettamente tenuto al segreto professionale. Pertanto non rivela notizie, fatti o informazioni apprese in ragione del suo rapporto professionale, né informa circa le prestazioni effettuate o programmate, a meno che non ricorrano le ipotesi previste dagli articoli seguenti.”

Effetti psicologici di una carenza nella sicurezza dei dati

Quanta paura può avere chi dopo aver dichiarato le proprie fragilità viene tradito proprio da chi avrebbe dovuto aiutarlo? L’ambito sanitario e psicologico costituisce un bersaglio estremamente interessante per la criminalità informatica sia per la facilità di attacco che per la qualità del dato. Le informazioni sanitarie consentono di esercitare una pressione estorsiva, alla luce degli elevati effetti reputazionali.

Pensate a cosa scatta nella mente dei pazienti che si rivolgono, a professionisti della salute per superare le proprie difficoltà ed invece si trovano coinvolte nella divulgazione delle proprie più intime vulnerabilità.

Come si sentono coloro che vogliono alleviare la propria ansia o depressione ed invece sono vittime della violazione della propria intimità? Che tipo di conseguenze psicologiche possono avere coloro che diventano vittime di un evento traumatico come un attacco informatico al chatbot terapeutico a cui si stanno rivolgendo?

Ansia, insicurezza e stress sono gli effetti psicologici più duraturi causati da tale trauma, che può addirittura trasformarsi in stress post traumatico. Quest’ultimo è un disturbo complesso che prevede anche un trattamento lungo. Occorre che i sistemi informatici siano in grado di assicurare il rispetto di tale principio di riservatezza delle altrui informazioni.

Conclusione

L’IA non è un sostituto del terapeuta umano, ma uno strumento che può essere utilizzato per migliorare l’efficacia e l’accessibilità della terapia. È un utile strumento di supporto, ma non sostituisce la terapia con un professionista umano. I chatbot non possono comprendere e rispondere alle emozioni umane con la stessa sensibilità e complessità di un terapeuta umano.

L’empatia umana si basa su esperienze vissute e connessioni interpersonali che i sistemi di IA non possono replicare. L’utilizzo dell’IA in psicologia può portare a grandi benefici, ma è fondamentale affrontare le sfide legate alla sicurezza informatica per garantire la protezione dei dati sensibili, la correttezza dei trattamenti e la fiducia dei pazienti.

Se un sistema di Intelligenza Artificiale commette un errore o produce danni, le conseguenze possono essere gravi. Pertanto, è importante affrontare lo sviluppo e l’integrazione di tali sistemi con cautela e responsabilità. La collaborazione tra diverse figure professionali è fondamentale per lo sviluppo di un’IA sicura, etica e responsabile.

E seppur come ha dichiarato Allison Darcy, la fondatrice di Woebot “Una macchina da tennis non sostituirà mai un avversario umano, e un terapeuta virtuale non sostituirà una connessione umana” è ormai obbligatorio investire nella sicurezza informatica per assicurare l’adeguata resilienza e difesa dei sistemi.

Immagine del sitoDaniela Farina
Filosofo, psicologo, counselor e coach AICP. Umanista per vocazione lavora in Cybersecurity per professione. In FiberCop S.p.a come Risk Analyst.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Tesla vuole dare a Musk 1000 miliardi di dollari per un piano da fantascienza. Più del PIL della Svizzera!
Di Redazione RHC - 07/11/2025

Numerosi apprezzamenti stanno arrivando per Elon Musk, che continua a guidare con destrezza le molteplici attività del suo impero, tra cui Tesla, SpaceX, xAI e Starlink, mantenendo salda la sua posiz...

Immagine del sito
Doppio Gioco: i dipendenti di un’azienda che “risolveva” gli attacchi ransomware li lanciavano loro stessi
Di Redazione RHC - 07/11/2025

Tre ex dipendenti di DigitalMint, che hanno indagato sugli incidenti ransomware e negoziato con i gruppi di ransomware, sono accusati di aver hackerato le reti di cinque aziende americane. Secondo il ...

Immagine del sito
Cisco risolve vulnerabilità critiche in ASA, DTD e Unified Contact Center Express
Di Redazione RHC - 06/11/2025

Cisco ha reso noto recentemente di aver scoperto una nuova tipologia di attacco informatico mirato a compromettere i dispositivi che operano con i software Cisco Secure Firewall Adaptive Security Appl...

Immagine del sito
Notepad++ sotto attacco! Come una DLL fasulla apre la porta ai criminal hacker
Di Manuel Roccon - 05/11/2025

Nel mese di Settembre è uscita una nuova vulnerabilità che riguarda Notepad++. La vulnerabilità è stata identificata con la CVE-2025-56383 i dettagli possono essere consultati nel sito del NIST. L...

Immagine del sito
Pericolo per gli utenti OneDrive: le DLL infette si nascondono nei file condivisi
Di Redazione RHC - 05/11/2025

Gli aggressori stanno utilizzando una tecnica avanzata che implica il caricamento laterale di DLL tramite l’applicazione Microsoft OneDrive. In questo modo riescono ad eseguire codice malevolo senza...