Redazione RHC : 30 Ottobre 2024 07:51
Gli ospedali americani utilizzano sempre più uno strumento di intelligenza artificiale per trascrivere l’audio in testo chiamato Whisper. Tuttavia, secondo un’indagine dell’Associated Press , questa rete neurale, sviluppata da OpenAI , è soggetta ad “allucinazioni” e aggiunge frasi inesistenti alle trascrizioni di dati medici e documenti aziendali.
Rilasciato nel 2022, Whisper è stato inizialmente commercializzato come un sistema di trascrizione che si avvicina alla precisione umana. Tuttavia, un ricercatore dell’Università del Michigan ha osservato che l’80% dei verbali controllati delle riunioni pubbliche contenevano dati distorti. Uno sviluppatore ha riferito che delle sue 26.000 trascrizioni di prova, quasi tutte contenevano passaggi inventati.
Nonostante gli avvertimenti di OpenAI secondo cui Whisper non dovrebbe essere utilizzato in aree critiche, più di 30.000 operatori sanitari statunitensi utilizzano attualmente strumenti basati su di esso.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Tra questi ci sono la Mankato Clinic in Minnesota e il Children’s Hospital di Los Angeles, che utilizza il servizio di assistente AI di Nabla. Quest’ultimo ha confermato la possibilità di “allucinazioni” e ha aggiunto che le registrazioni audio già trascritte vengono automaticamente cancellate per garantire la protezione dei dati, il che rende difficile verificare la presenza di errori nelle trascrizioni.
Nel frattempo, gli errori di trascrizione possono causare gravi danni ai pazienti. Le persone non udenti e con problemi di udito sono particolarmente vulnerabili perché non possono verificare autonomamente la correttezza dei dati inseriti.
I problemi di Whisper si estendono oltre il campo medico. Una ricerca della Cornell University e dell’Università della Virginia ha rilevato che nell’1% delle registrazioni audio il sistema aggiungeva frasi che non erano contenute nei dati originali. Nel 38% dei casi si tratta di “allucinazioni” di natura dannosa, che vanno da atti di violenza immaginari a commenti razzisti.
La tecnologia di Whisper si basa sulla previsione delle parole probabili sulla base di dati audio. Se il sistema riscontra una scarsa qualità di registrazione, utilizza le frasi apparse più frequentemente nei dati di addestramento. Alcuni esempi sottolineano l’influenza dei contenuti di YouTube, sui quali il modello è stato addestrato.
Gli errori di Whisper sollevano interrogativi sulla regolamentazione dell’uso dell’intelligenza artificiale in medicina. Sebbene OpenAI riconosca il problema e continui a migliorare il modello, l’uso di strumenti di intelligenza artificiale inaffidabili in aree mission-critical richiede un’applicazione e una certificazione rigorose. Solo questo approccio ridurrà al minimo i rischi e garantirà un livello adeguato di sicurezza del paziente.
Oggi i bambini sono un po’ più al sicuro grazie ad una operazione di polizia coordinata da Europol che ha portato alla chiusura di Kidflix. Si tratta di una delle più grandi piattafor...
Uno degli autori di Flipper Zero, Pavel Zhovner, ha condiviso i dettagli su come stanno procedendo i lavori su una nuova versione del multi-strumento per hacker: Flipper One. Lo sviluppatore ha pubbli...
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Quando Jeffrey Goldberg dell’Atlantic ha fatto trapelare accidentalmente un messaggio di gruppo privato di alti funzionari statunitensi su un possibile attacco contro gli Houthi nello Yemen, ha...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006