Redazione RHC : 6 Luglio 2023 08:10
All’inizio di quest’anno, si è verificato un incidente in cui un criminale informatico ha cercato di estorcere 1 milione di dollari a una donna dell’Arizona, sostenendo di aver rapito sua figlia. Per maggiore credibilità, l’autore del reato ha minacciato di picchiare la ragazza, mentre la madre dell’ostaggio, Jennifer DeStefano, ha sentito al telefono urla, pianti e suppliche disperate.
Tuttavia, queste grida si sono rivelate false. DeStefano ha detto alla polizia di essere certa che l’uomo al telefono avesse effettivamente rapito sua figlia perché la voce della presunta vittima era identica a quella di sua figlia.
Si tratta di episodi in rapida crescita in cui i criminali informatici hanno utilizzato strumenti di intelligenza artificiale per ingannare le persone.
La NIS2 è complessa da capire?
Non perdere tempo, segui l'anteprima gratuita del corso che stiamo preparando.Accedi quindi alla nostra Academy e segui l'anteprima del corso della durata di 30 minuti per comprendere i contenuti esclusivi che tratteremo nel corso.per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Il problema è diventato così importante che all’inizio di giugno l’FBI ha emesso un avviso in cui riportava numerose lamentele sulla questione: gli aggressori pubblicano sulla rete contenuti pornografici credibili, anche con la partecipazione di bambini minorenni, creati utilizzando tecnologie di apprendimento automatico, minacciando di distribuire i contenuti ad amici, conoscenti e potenziali vittime a scopo di estorsione.
In molti casi, tutto ciò di cui gli aggressori hanno bisogno per creare deepfake sono piccoli campioni del contenuto del bersaglio.
Bastano anche pochi secondi di una registrazione audio che una persona può postare sui social per clonare la voce della vittima. Secondo i ricercatori di Trend Micro, sono ora disponibili molti strumenti di intelligenza artificiale che semplificano la clonazione di una voce utilizzando campioni vocali raccolti da varie fonti.
A maggio, gli esperti di sicurezza informatica di Recorded Future hanno avvertito di un aumento dell’interesse dei criminali informatici per Voice Cloning-as-a-Service (VCaaS), che rende disponibile la tecnologia deepfake. Secondo Recorded Future, sulla darknet stanno comparendo sempre più piattaforme di clonazione vocale, abbassando la barriera di ingresso per i criminali informatici. Alcuni di essi sono gratuiti, mentre altri costano solo circa 5 dollari al mese.
Anche quest’anno si è saputo che la nuova rete neurale VALL-E di Microsoft è in grado di falsificare la voce di una determinata persona fino alle singole intonazioni.
Oltre alla contraffazione vocale per reati, esiste anche l’autenticazione vocale, un’altra cosa di cui aver paura.
Di recente, gli informatici dell’Università di Waterloo hanno sviluppato un metodo di attacco in grado di aggirare con successo i sistemi di sicurezza dell’autenticazione vocale con una percentuale di successo fino al 99% dopo sei tentativi.
Redazione: [email protected]
© Copyright RED HOT CYBER. PIVA 16821691009