Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

L’IA come Terapista? Dimostra empatia, ma con pregiudizi nascosti. Lo studio del MIT/UCLA

Redazione RHC : 19 Dicembre 2024 07:27

L’anonimato di Internet sta diventando un’ancora di salvezza per milioni di americani in cerca di supporto psicologico. Secondo una recente ricerca, più di 150 milioni di persone negli Stati Uniti vivono in aree con una grave carenza di professionisti della salute mentale, costringendole a rivolgersi ai social network per chiedere aiuto.

I ricercatori del MIT, della New York University e dell’UCLA hanno studiato più di 12.000 post Reddit e 70.000 risposte da 26 subreddit sulla salute mentale. Lo scopo dello studio: sviluppare criteri con cui sarà possibile valutare le capacità di supporto psicologico di grandi modelli linguistici come GPT-4.

Nell’esperimento, due psicologi clinici hanno analizzato 50 richieste di aiuto selezionate casualmente su Reddit. Ogni post era accompagnato da una risposta reale di un altro utente della piattaforma o da un testo generato dall’intelligenza artificiale. Gli esperti, senza conoscere l’origine delle risposte, hanno valutato caso per caso il livello di empatia.

Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011  per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

I risultati sono stati sorprendenti. GPT-4 non solo ha dimostrato una maggiore empatia, ma è stato anche più efficace del 48% nel motivare le persone a apportare cambiamenti positivi.

Ma ecco cosa è allarmante: l’IA si è rivelata un terapista piuttosto parziale. I livelli di empatia nelle risposte GPT-4 sono diminuiti del 2-15% per gli utenti neri e del 5-17% per gli utenti asiatici rispetto ai bianchi o a coloro la cui razza non era specificata.

Per confermarlo, i ricercatori hanno campionato post che includevano indicatori demografici espliciti (ad esempio, “sono una donna nera di 32 anni”) e riferimenti impliciti a gruppi (ad esempio, menzionando i capelli naturali come indicatore della razza).

Quando le informazioni demografiche erano incluse esplicitamente o implicitamente nei messaggi, le persone avevano maggiori probabilità di mostrare una maggiore empatia, soprattutto dopo segnali indiretti. GPT-4, al contrario, ha generalmente mantenuto un tono coerente indipendentemente dalle caratteristiche demografiche dell’autore del post (ad eccezione delle donne di colore).

Anche la struttura e il contesto della query influenzano in modo significativo la qualità delle risposte del modello linguistico. Un ruolo importante viene giocato specificando lo stile di comunicazione (clinica, social-media) e il modo in cui vengono utilizzate le caratteristiche demografiche del paziente.

La rilevanza dello studio è dimostrata dai recenti tragici eventi. Nel marzo dello scorso anno, un uomo belga si è suicidato dopo aver comunicato con il chatbot ELIZA, che funziona sul modello linguistico GPT-J. Un mese dopo, la National Eating Disorders Association è stata costretta a chiudere il suo bot Tessa, che aveva iniziato a fornire consigli dietetici ai pazienti con disturbi alimentari.

La professoressa Marzieh Ghassemi del MIT sottolinea che i modelli linguistici sono già utilizzati attivamente nelle istituzioni mediche per automatizzare i processi di routine. In un’intervista, ha condiviso le sue scoperte: “Abbiamo scoperto che gli attuali modelli linguistici, sebbene meno focalizzati sui fattori demografici rispetto alle persone nel contesto del supporto psicologico, producono ancora risposte diverse per diversi gruppi di pazienti. Abbiamo un grande potenziale per migliorare questi modelli in modo che possano fornire cure migliori e più efficaci”.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.