Redazione RHC : 30 Ottobre 2024 07:51
Gli ospedali americani utilizzano sempre più uno strumento di intelligenza artificiale per trascrivere l’audio in testo chiamato Whisper. Tuttavia, secondo un’indagine dell’Associated Press , questa rete neurale, sviluppata da OpenAI , è soggetta ad “allucinazioni” e aggiunge frasi inesistenti alle trascrizioni di dati medici e documenti aziendali.
Rilasciato nel 2022, Whisper è stato inizialmente commercializzato come un sistema di trascrizione che si avvicina alla precisione umana. Tuttavia, un ricercatore dell’Università del Michigan ha osservato che l’80% dei verbali controllati delle riunioni pubbliche contenevano dati distorti. Uno sviluppatore ha riferito che delle sue 26.000 trascrizioni di prova, quasi tutte contenevano passaggi inventati.
Nonostante gli avvertimenti di OpenAI secondo cui Whisper non dovrebbe essere utilizzato in aree critiche, più di 30.000 operatori sanitari statunitensi utilizzano attualmente strumenti basati su di esso.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Tra questi ci sono la Mankato Clinic in Minnesota e il Children’s Hospital di Los Angeles, che utilizza il servizio di assistente AI di Nabla. Quest’ultimo ha confermato la possibilità di “allucinazioni” e ha aggiunto che le registrazioni audio già trascritte vengono automaticamente cancellate per garantire la protezione dei dati, il che rende difficile verificare la presenza di errori nelle trascrizioni.
Nel frattempo, gli errori di trascrizione possono causare gravi danni ai pazienti. Le persone non udenti e con problemi di udito sono particolarmente vulnerabili perché non possono verificare autonomamente la correttezza dei dati inseriti.
I problemi di Whisper si estendono oltre il campo medico. Una ricerca della Cornell University e dell’Università della Virginia ha rilevato che nell’1% delle registrazioni audio il sistema aggiungeva frasi che non erano contenute nei dati originali. Nel 38% dei casi si tratta di “allucinazioni” di natura dannosa, che vanno da atti di violenza immaginari a commenti razzisti.
La tecnologia di Whisper si basa sulla previsione delle parole probabili sulla base di dati audio. Se il sistema riscontra una scarsa qualità di registrazione, utilizza le frasi apparse più frequentemente nei dati di addestramento. Alcuni esempi sottolineano l’influenza dei contenuti di YouTube, sui quali il modello è stato addestrato.
Gli errori di Whisper sollevano interrogativi sulla regolamentazione dell’uso dell’intelligenza artificiale in medicina. Sebbene OpenAI riconosca il problema e continui a migliorare il modello, l’uso di strumenti di intelligenza artificiale inaffidabili in aree mission-critical richiede un’applicazione e una certificazione rigorose. Solo questo approccio ridurrà al minimo i rischi e garantirà un livello adeguato di sicurezza del paziente.
Negli ultimi giorni, il collettivo hacktivista italiano Anonymous Italia ha risposto agli attacchi informatici sferrati dal gruppo filorusso NoName057(16) colpendo una serie di obiettivi russi. Gli at...
Gruppo di ricerca MASSGRAVE ha presentato un Exploit chiamato TSforge che consente di attivare qualsiasi versione di Windows a partire da Windows 7, nonché tutte le edizioni di Microsof...
Su BreachForum un utente dallo pseudonimo EDRVendor ha venduto, dopo poche ore dall’annuncio, l’accesso ad una cassetta postale della polizia di stato italiana. Oltre alla mail viene off...
Team di intelligence sulle minacce di Google ha reso pubblica l’informazione sul gruppo di hacker Triplestrength, finora sconosciuto, attivo dal 2020. Il gruppo è composto da poc...
I canali Telegram degli hacker filorussi di NoName057(16) sono stati eliminati da telegram. Ma subito gli attivisti ricreano nuovi canali marchiati con il suffisso “reborn“. Ma...
Copyright @ 2003 – 2024 REDHOTCYBER Srl
PIVA 17898011006