Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Come l’Intelligenza Artificiale sta trasformando la psicologia: dalle chatbot terapeutiche alla realtà virtuale

Daniela Farina : 27 Aprile 2024 08:42

L’intelligenza artificiale (IA) ha rivoluzionato il nostro modo di vivere, lavorare e interagire. Negli ultimi decenni, questa tecnologia ha compiuto passi da gigante, trasformando molteplici settori, tra cui quello della psicologia. La psicologia e l’intelligenza artificiale sono interconnesse. Entrambe fanno riferimento alla sfera cognitiva, al comportamento e alle emozioni.

Vediamo insieme tale legame, dandone una definizione e spiegandone le conseguenze.

L’Intelligenza Artificiale negli anni

La locuzione IA (Artificial Intelligence) negli anni è ormai entrata nel lessico comune anche se non è scontato che tutti coloro che la usano sappiano realmente cosa sia. Infatti nel mondo caotico di oggi è facile dimenticare che l’IA ha preso forma in anni lontani: era il 1956 quando John McCarthy, ricercatore informatico e studioso di scienze cognitive, propose di applicare idee e concetti matematici per gestire attività strutturate e finalizzate. Ma già nel 1950 Alan Turing pubblicò nella rivista Mind un famoso articolo in cui, tra l’altro, si domandava se un giorno le macchine potessero giungere a… pensare!

SCORSO DEL 25% SUL CORSO NIS2 FINO AL 31 DICEMBRE!
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce. Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.

Accedi alla pagina del corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.

Per un periodo limitato, potrai utilizzare il COUPON NIS-84726 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

Da allora ad oggi molto e cambiato.

L’Intelligenza Artificiale come assistente clinico

Le tecnologie basate sull’IA sono utilizzate per analizzare grandi quantità di dati psicologici, identificare pattern e fornire predizioni sui comportamenti umani. Algoritmi avanzati sono impiegati nella diagnosi dei disturbi mentali, nella valutazione del rischio suicidio e nell’adattamento dei trattamenti in base alle esigenze specifiche del paziente.

Ecco alcuni esempi di come la psicologia e l’IA stanno collaborando:

Sviluppo di chatbot terapeutici: l’IA permette di creare chatbot in grado di simulare una conversazione con un terapeuta, offrendo supporto psicologico a persone con ansia, depressione o altri disturbi.

Analisi del linguaggio naturale per la diagnosi: l’IA può essere utilizzata per analizzare il linguaggio dalle persone e per identificare potenziali problemi di salute mentale.

Sviluppo di sistemi di realtà virtuale per la terapia: la realtà virtuale (VR) può essere utilizzata per creare ambienti terapeutici sicuri e controllati per aiutare le persone a superare fobie, traumi o altri disturbi. La VR può essere utilizzata per:

  • L’esposizione graduale a situazioni temute
  • La riabilitazione cognitiva
  • La gestione del dolore

Brain-computer interface (BCI):le BCI sono dispositivi che permettono di controllare un computer con la mente. Le BCI possono essere utilizzate per:

  • Ripristinare le funzioni motorie:
  • Comunicare per persone con disabilità di parola
  • Migliorare le prestazioni cognitive

La sicurezza dei dati

L’idea di poter contare su metodi rivoluzionari, che contribuiscono al nostro benessere, può sembrare meravigliosa. Tuttavia, comporta anche problemi che dobbiamo risolvere se vogliamo che tali metodi si integrino ulteriormente nel panorama quotidiano. La sicurezza nei chatbot psicologici è fondamentale per proteggere i dati sensibili degli utenti, prevenire danni e garantire un utilizzo etico e trasparente.

Pericoli dell’IA

Data breach e privacy: in quanto i chatbot raccolgono e analizzano dati sensibili sui pazienti, come cartelle cliniche, colloqui e questionari. La compromissione di questi dati potrebbe causare gravi danni alla privacy e alla reputazione dei pazienti e dei professionisti. È fondamentale che questi dati siano protetti e utilizzati solo per gli scopi previsti.

Bias e discriminazione algoritmica: gli algoritmi di IA potrebbero essere intrinsecamente viziati da pregiudizi inconsci, presenti nei dati su cui sono stati allenati. Questo potrebbe portare a diagnosi errate, discriminazioni nella scelta dei trattamenti e rafforzamento di stereotipi negativi.

Mancanza di trasparenza e interpretabilità: è difficile comprendere le decisioni prese dai sistemi.

Cybersecurity e malware:i sistemi di IA possono essere vulnerabili ad attacchi informatici che potrebbero compromettere la loro integrità e funzionalità, con gravi conseguenze per la cura dei pazienti.

Ordine degli Psicologi

Le persone che si rivolgono ai professionisti del settore superano l’emozione primaria della paura di aprirsi con uno sconosciuto, solo perchè sanno che il setting è protetto dal segreto professionale.

Articolo 11

“lo psicologo è strettamente tenuto al segreto professionale. Pertanto non rivela notizie, fatti o informazioni apprese in ragione del suo rapporto professionale, né informa circa le prestazioni effettuate o programmate, a meno che non ricorrano le ipotesi previste dagli articoli seguenti.”

Effetti psicologici di una carenza nella sicurezza dei dati

Quanta paura può avere chi dopo aver dichiarato le proprie fragilità viene tradito proprio da chi avrebbe dovuto aiutarlo? L’ambito sanitario e psicologico costituisce un bersaglio estremamente interessante per la criminalità informatica sia per la facilità di attacco che per la qualità del dato. Le informazioni sanitarie consentono di esercitare una pressione estorsiva, alla luce degli elevati effetti reputazionali.

Pensate a cosa scatta nella mente dei pazienti che si rivolgono, a professionisti della salute per superare le proprie difficoltà ed invece si trovano coinvolte nella divulgazione delle proprie più intime vulnerabilità.

Come si sentono coloro che vogliono alleviare la propria ansia o depressione ed invece sono vittime della violazione della propria intimità? Che tipo di conseguenze psicologiche possono avere coloro che diventano vittime di un evento traumatico come un attacco informatico al chatbot terapeutico a cui si stanno rivolgendo?

Ansia, insicurezza e stress sono gli effetti psicologici più duraturi causati da tale trauma, che può addirittura trasformarsi in stress post traumatico. Quest’ultimo è un disturbo complesso che prevede anche un trattamento lungo. Occorre che i sistemi informatici siano in grado di assicurare il rispetto di tale principio di riservatezza delle altrui informazioni.

Conclusione

L’IA non è un sostituto del terapeuta umano, ma uno strumento che può essere utilizzato per migliorare l’efficacia e l’accessibilità della terapia. È un utile strumento di supporto, ma non sostituisce la terapia con un professionista umano. I chatbot non possono comprendere e rispondere alle emozioni umane con la stessa sensibilità e complessità di un terapeuta umano.

L’empatia umana si basa su esperienze vissute e connessioni interpersonali che i sistemi di IA non possono replicare. L’utilizzo dell’IA in psicologia può portare a grandi benefici, ma è fondamentale affrontare le sfide legate alla sicurezza informatica per garantire la protezione dei dati sensibili, la correttezza dei trattamenti e la fiducia dei pazienti.

Se un sistema di Intelligenza Artificiale commette un errore o produce danni, le conseguenze possono essere gravi. Pertanto, è importante affrontare lo sviluppo e l’integrazione di tali sistemi con cautela e responsabilità. La collaborazione tra diverse figure professionali è fondamentale per lo sviluppo di un’IA sicura, etica e responsabile.

E seppur come ha dichiarato Allison Darcy, la fondatrice di Woebot “Una macchina da tennis non sostituirà mai un avversario umano, e un terapeuta virtuale non sostituirà una connessione umana” è ormai obbligatorio investire nella sicurezza informatica per assicurare l’adeguata resilienza e difesa dei sistemi.

Daniela Farina
Laureata in Filosofia e Psicologia, counselor professionista, appassionata di work life balance e di mindfulness, Risk Management Specialista in FiberCop S.p.a.