
Redazione RHC : 10 Agosto 2023 09:47
Uno studio dell’University College di Londra ha rilevato che le persone possono riconoscere il parlato generato artificialmente solo il 73% delle volte. Inoltre, i risultati erano gli stessi per lingue diverse: sia inglese che cinese.
Ora gli scienziati devono affrontare un compito importante: lo sviluppo di rilevatori automatici di deepfake per contrastare le frodi attraverso materiali audio e video falsi.
I deepfake sono media sintetici che imitano la voce o l’aspetto di una persona reale. Si riferiscono all’intelligenza artificiale generativa (AI) che apprende dai dati dei media. In passato richiedeva migliaia di campioni per ricreare il parlato umano, mentre i moderni algoritmi possono ricreare una voce da una registrazione di 3 secondi.
CVE Enrichment Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.
Cosa trovi nel servizio: ✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor. ✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV). ✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia. ✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Lo studio ha utilizzato un algoritmo di sintesi vocale addestrato su due set di dati pubblici in inglese e cinese. In anticipo, il programma ha generato 50 voci in ciascuna lingua. Questi campioni differivano da quelli su cui era stato addestrato l’algoritmo stesso.
I partecipanti (529 persone) hanno riconosciuto discorsi falsi solo il 73% delle volte. Un breve addestramento sulle caratteristiche dei deepfake ha portato solo un leggero miglioramento.
Il primo autore dello studio, Kimberly Mai, ha dichiarato: “Abbiamo utilizzato campioni generati da algoritmi relativamente vecchi. La domanda sorge spontanea: le persone saranno in grado di notare almeno qualcosa di sospetto nei record generati con la tecnologia più recente, ora e in futuro?”
Sebbene l’IA generativa abbia vantaggi per le persone con disabilità, gli scienziati temono che governi e criminali informatici inizieranno ad abusare di queste nuove funzionalità. Così nel 2019 i truffatori hanno convinto l’amministratore delegato di una società energetica britannica a trasferire loro centinaia di migliaia di sterline imitando la voce del suo capo.
Apple ha recentemente annunciato il rilascio di un’applicazione per iPhone e iPad che consente di creare una copia di una voce umana da una registrazione di 15 minuti.
Un altro autore dell’esperimento, Lewis Griffin, ha dichiarato: “Man mano che le tecnologie di intelligenza artificiale migliorano, le organizzazioni dovrebbero sviluppare strategie di controllo, senza dimenticare i vantaggi della tecnologia”.
Redazione
L’Agenzia per la Cybersicurezza Nazionale (ACN) ha imposto un’accelerazione decisiva per la sicurezza informatica italiana. Con la Determinazione n. 333017/2025, ha formalizzato la figura del Refe...

Il progetto Tor ha annunciato l’introduzione di un nuovo schema di crittografia, chiamato Counter Galois Onion (CGO), destinato a sostituire il precedente metodo Tor1 Relay. L’aggiornamento mira a...

L’attuale accelerazione normativa in materia di cybersicurezza non è un fenomeno isolato, ma il culmine di un percorso di maturazione del Diritto penale che ha dovuto confrontarsi con la dematerial...

Sempre più amministrazioni avviano simulazioni di campagne di phishing per misurare la capacità dei propri dipendenti di riconoscere i messaggi sospetti. Quando queste attività coinvolgono struttur...

I criminali informatici non hanno più bisogno di convincere ChatGPT o Claude Code a scrivere malware o script per il furto di dati. Esiste già un’intera classe di modelli linguistici specializzati...