Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Come l’Intelligenza Artificiale sta trasformando la psicologia: dalle chatbot terapeutiche alla realtà virtuale

Daniela Farina : 27 Aprile 2024 08:42

L’intelligenza artificiale (IA) ha rivoluzionato il nostro modo di vivere, lavorare e interagire. Negli ultimi decenni, questa tecnologia ha compiuto passi da gigante, trasformando molteplici settori, tra cui quello della psicologia. La psicologia e l’intelligenza artificiale sono interconnesse. Entrambe fanno riferimento alla sfera cognitiva, al comportamento e alle emozioni.

Vediamo insieme tale legame, dandone una definizione e spiegandone le conseguenze.

L’Intelligenza Artificiale negli anni

La locuzione IA (Artificial Intelligence) negli anni è ormai entrata nel lessico comune anche se non è scontato che tutti coloro che la usano sappiano realmente cosa sia. Infatti nel mondo caotico di oggi è facile dimenticare che l’IA ha preso forma in anni lontani: era il 1956 quando John McCarthy, ricercatore informatico e studioso di scienze cognitive, propose di applicare idee e concetti matematici per gestire attività strutturate e finalizzate. Ma già nel 1950 Alan Turing pubblicò nella rivista Mind un famoso articolo in cui, tra l’altro, si domandava se un giorno le macchine potessero giungere a… pensare!

Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

Da allora ad oggi molto e cambiato.

L’Intelligenza Artificiale come assistente clinico

Le tecnologie basate sull’IA sono utilizzate per analizzare grandi quantità di dati psicologici, identificare pattern e fornire predizioni sui comportamenti umani. Algoritmi avanzati sono impiegati nella diagnosi dei disturbi mentali, nella valutazione del rischio suicidio e nell’adattamento dei trattamenti in base alle esigenze specifiche del paziente.

Ecco alcuni esempi di come la psicologia e l’IA stanno collaborando:

Sviluppo di chatbot terapeutici: l’IA permette di creare chatbot in grado di simulare una conversazione con un terapeuta, offrendo supporto psicologico a persone con ansia, depressione o altri disturbi.

Analisi del linguaggio naturale per la diagnosi: l’IA può essere utilizzata per analizzare il linguaggio dalle persone e per identificare potenziali problemi di salute mentale.

Sviluppo di sistemi di realtà virtuale per la terapia: la realtà virtuale (VR) può essere utilizzata per creare ambienti terapeutici sicuri e controllati per aiutare le persone a superare fobie, traumi o altri disturbi. La VR può essere utilizzata per:

  • L’esposizione graduale a situazioni temute
  • La riabilitazione cognitiva
  • La gestione del dolore

Brain-computer interface (BCI):le BCI sono dispositivi che permettono di controllare un computer con la mente. Le BCI possono essere utilizzate per:

  • Ripristinare le funzioni motorie:
  • Comunicare per persone con disabilità di parola
  • Migliorare le prestazioni cognitive

La sicurezza dei dati

L’idea di poter contare su metodi rivoluzionari, che contribuiscono al nostro benessere, può sembrare meravigliosa. Tuttavia, comporta anche problemi che dobbiamo risolvere se vogliamo che tali metodi si integrino ulteriormente nel panorama quotidiano. La sicurezza nei chatbot psicologici è fondamentale per proteggere i dati sensibili degli utenti, prevenire danni e garantire un utilizzo etico e trasparente.

Pericoli dell’IA

Data breach e privacy: in quanto i chatbot raccolgono e analizzano dati sensibili sui pazienti, come cartelle cliniche, colloqui e questionari. La compromissione di questi dati potrebbe causare gravi danni alla privacy e alla reputazione dei pazienti e dei professionisti. È fondamentale che questi dati siano protetti e utilizzati solo per gli scopi previsti.

Bias e discriminazione algoritmica: gli algoritmi di IA potrebbero essere intrinsecamente viziati da pregiudizi inconsci, presenti nei dati su cui sono stati allenati. Questo potrebbe portare a diagnosi errate, discriminazioni nella scelta dei trattamenti e rafforzamento di stereotipi negativi.

Mancanza di trasparenza e interpretabilità: è difficile comprendere le decisioni prese dai sistemi.

Cybersecurity e malware:i sistemi di IA possono essere vulnerabili ad attacchi informatici che potrebbero compromettere la loro integrità e funzionalità, con gravi conseguenze per la cura dei pazienti.

Ordine degli Psicologi

Le persone che si rivolgono ai professionisti del settore superano l’emozione primaria della paura di aprirsi con uno sconosciuto, solo perchè sanno che il setting è protetto dal segreto professionale.

Articolo 11

“lo psicologo è strettamente tenuto al segreto professionale. Pertanto non rivela notizie, fatti o informazioni apprese in ragione del suo rapporto professionale, né informa circa le prestazioni effettuate o programmate, a meno che non ricorrano le ipotesi previste dagli articoli seguenti.”

Effetti psicologici di una carenza nella sicurezza dei dati

Quanta paura può avere chi dopo aver dichiarato le proprie fragilità viene tradito proprio da chi avrebbe dovuto aiutarlo? L’ambito sanitario e psicologico costituisce un bersaglio estremamente interessante per la criminalità informatica sia per la facilità di attacco che per la qualità del dato. Le informazioni sanitarie consentono di esercitare una pressione estorsiva, alla luce degli elevati effetti reputazionali.

Pensate a cosa scatta nella mente dei pazienti che si rivolgono, a professionisti della salute per superare le proprie difficoltà ed invece si trovano coinvolte nella divulgazione delle proprie più intime vulnerabilità.

Come si sentono coloro che vogliono alleviare la propria ansia o depressione ed invece sono vittime della violazione della propria intimità? Che tipo di conseguenze psicologiche possono avere coloro che diventano vittime di un evento traumatico come un attacco informatico al chatbot terapeutico a cui si stanno rivolgendo?

Ansia, insicurezza e stress sono gli effetti psicologici più duraturi causati da tale trauma, che può addirittura trasformarsi in stress post traumatico. Quest’ultimo è un disturbo complesso che prevede anche un trattamento lungo. Occorre che i sistemi informatici siano in grado di assicurare il rispetto di tale principio di riservatezza delle altrui informazioni.

Conclusione

L’IA non è un sostituto del terapeuta umano, ma uno strumento che può essere utilizzato per migliorare l’efficacia e l’accessibilità della terapia. È un utile strumento di supporto, ma non sostituisce la terapia con un professionista umano. I chatbot non possono comprendere e rispondere alle emozioni umane con la stessa sensibilità e complessità di un terapeuta umano.

L’empatia umana si basa su esperienze vissute e connessioni interpersonali che i sistemi di IA non possono replicare. L’utilizzo dell’IA in psicologia può portare a grandi benefici, ma è fondamentale affrontare le sfide legate alla sicurezza informatica per garantire la protezione dei dati sensibili, la correttezza dei trattamenti e la fiducia dei pazienti.

Se un sistema di Intelligenza Artificiale commette un errore o produce danni, le conseguenze possono essere gravi. Pertanto, è importante affrontare lo sviluppo e l’integrazione di tali sistemi con cautela e responsabilità. La collaborazione tra diverse figure professionali è fondamentale per lo sviluppo di un’IA sicura, etica e responsabile.

E seppur come ha dichiarato Allison Darcy, la fondatrice di Woebot “Una macchina da tennis non sostituirà mai un avversario umano, e un terapeuta virtuale non sostituirà una connessione umana” è ormai obbligatorio investire nella sicurezza informatica per assicurare l’adeguata resilienza e difesa dei sistemi.

Daniela Farina
Laureata in filosofia, in psicologia, counselor professionista, mental coach, appassionata di mindfulness. Umanista per vocazione lavora in Cybersecurity per professione. In FiberCop S.p.a come Risk Analyst.

Lista degli articoli

Articoli in evidenza

Skitnet: Il Malware che Sta Conquistando il Mondo del Ransomware

Gli esperti hanno lanciato l’allarme: i gruppi ransomware stanno utilizzando sempre più spesso il nuovo malware Skitnet (noto anche come Bossnet) per lo sfruttamento successivo delle ...

Bypass di Microsoft Defender mediante Defendnot: Analisi Tecnica e Strategie di Mitigazione

Nel panorama delle minacce odierne, Defendnot rappresenta un sofisticato malware in grado di disattivare Microsoft Defender sfruttando esclusivamente meccanismi legittimi di Windows. A differenza di a...

Falso Mito: Se uso una VPN, sono completamente al sicuro anche su reti WiFi Aperte e non sicure

Molti credono che l’utilizzo di una VPN garantisca una protezione totale durante la navigazione, anche su reti WiFi totalmente aperte e non sicure. Sebbene le VPN siano strumenti efficaci per c...

In Cina il CNVD premia i migliori ricercatori di sicurezza e la collaborazione tra istituzioni e aziende

Durante una conferenza nazionale dedicata alla sicurezza informatica, sono stati ufficialmente premiati enti, aziende e professionisti che nel 2024 hanno dato un contributo significativo al National I...

Quando l’MFA non basta! Abbiamo Violato il Login Multi-Fattore Per Capire Come Difenderci Meglio

Nel mondo della cybersecurity esiste una verità scomoda quanto inevitabile: per difendere davvero qualcosa, bisogna sapere come violarlo. L’autenticazione multi-fattore è una delle co...