Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Le truffe deepfake stanno arrivando. L’audio generato dalle AI che imita una persona diventa sempre più convincente

Redazione RHC : 16 Agosto 2023 08:27

I deepfake sono media sintetici che imitano la voce o l’aspetto di una persona reale. Possono essere utilizzati per la manipolazione e l’inganno e sono una delle principali minacce associate allo sviluppo dell’IA.

Gli scienziati di Londra hanno testato quanto le persone possono riconoscere i deepfake. Hanno chiesto a 529 persone di ascoltare registrazioni audio vere e false in inglese e cinese, create utilizzando un algoritmo di sintesi vocale (TTS). 

I ricercatori hanno generato 50 campioni vocali deepfake in ciascuna lingua che non corrispondevano ai campioni utilizzati per addestrare l’algoritmo. Gli ascoltatori dovevano determinare quali fossero artificiali.

Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

I risultati hanno mostrato che le persone hanno identificato correttamente i falsi solo il 73% delle volte e il linguaggio non ha avuto alcun effetto sulla precisione. 

Anche dopo che agli ascoltatori sono stati forniti esempi di deepfake per aumentare la consapevolezza, le loro prestazioni non sono migliorate molto.

Gli scienziati hanno concluso che le persone non possono identificare in modo affidabile i deepfake, anche se hanno ricevuto una formazione per distinguere il contenuto artificiale dal contenuto reale.

I ricercatori hanno anche notato che i deepfake diventeranno più realistici e difficili da riconoscere con lo sviluppo degli algoritmi di sintesi vocale. 

Ad esempio, se prima per creare un deepfake erano necessari migliaia di campioni della voce di una persona, ora è sufficiente solo un frammento di tre secondi di un discorso.

La difficoltà di rilevare discorsi deepfake evidenzia il loro potenziale e indica la necessità di sviluppare misure protettive.

Un ricercatore senior presso il Citizen Lab dell’Università di Toronto, ha scritto che le tendenze attuali sono della massima importanza per il phishing e le truffe.

Ha notato che i buoni deepfake e i truffatori creativi possono unire i loro sforzi e adattarsi rapidamente alla situazione. Il ricercatore ritiene che le truffe telefoniche e il phishing si basino su cicli di feedback molto brevi, in cui gli operatori imparano istantaneamente dai propri errori e successi.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.