Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

La “macchina della verità” per i deepfake

Alessia Tomaselli : 4 Febbraio 2023 10:00

I deepfakes sono video falsi di persone reali, generati da software di intelligenza artificiale per mano di persone che vogliono minarne la fiducia.

Al giorno d’oggi, i deepfakes stanno diventando così realistici che gli esperti si stanno preoccupando dell’impatto che avranno sulle notizie e sulla democrazia.

Due anni fa, Eric Horvitz, Chief Scientific Officer di Microsoft e co-creatore del filtro antispam per le email, ha iniziato a cercare di risolvere questo problema.

Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
379 163 8765  per richiedere informazioni
"

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

“Entro cinque o dieci anni, se non avremo questa tecnologia, la maggior parte di ciò che la gente vedrà, o una buona parte di esso, sarà falso. Non saremo in grado di distinguerli.”

“Chissà se c’è una via d’uscita!” si chiedeva Horvitz.

Si è scoperto che anche Adobe stava pensando ad una soluzione: “Volevamo pensare di dare a tutti uno strumento, un modo per capire se una cosa è vera o no”, ha detto Dana Rao, Chief Counsel e Chief Trust Officer di Adobe.

“Il problema è che sia la tecnologia per individuare l’IA che quella per modificarla si stanno sviluppando” ha detto Rao. “Ci sarà sempre questa corsa tra i due, dove uno vincerà sull’altro. Quindi sappiamo che, in una prospettiva a lungo termine, l’IA non sarà la risposta”.

Entrambe le aziende hanno concluso che cercare di distinguere i video reali da quelli falsi sarebbe una corsa agli armamenti senza fine. Così, ha affermato Rao: “Abbiamo ribaltato il problema, ci siamo detti: “Ciò di cui abbiamo bisogno è fornire alle persone un modo per sapere cosa è vero, invece di cercare di trovare tutto ciò che è falso”.

Ciò che stanno facendo non è quindi sviluppare una tecnologia in grado di dimostrare che qualcosa è falso, ma che qualcosa è vero. L’obiettivo è quello di creare una macchina della verità per foto e video.

Alla fine, Microsoft e Adobe hanno unito le forze e hanno progettato una nuova funzione chiamata Content Credentials (credenziali di contenuto), che sperano un giorno possa apparire su ogni foto e video autentici.

Come funziona

Immaginate di scorrere i feed dei vostri social. Qualcuno vi invia una foto di alcune piramidi innevate, affermando che gli scienziati le hanno trovate in Antartide, lontano dall’Egitto! L’icona Content Credentials, pubblicata insieme alla foto, rivelerà la sua cronologia quando si clicca su di essa.

“È possibile vedere chi l’ha scattata, quando l’ha scattata, dove è stata scattata e le modifiche apportate”, ha dichiarato Rao. Senza l’icona di verifica, l’utente potrebbe domandarsi se il contenuto sia veritiero.

Già 900 aziende hanno accettato di usare il pulsante “Credenziali di contenuto”. L’etichetta mostra l’intero ciclo di vita di foto e video, dalla macchina fotografica che li scatta (come Nikon e Canon) fino ai siti web che li visualizzano (New York Times, Wall Street Journal).

Rao ha dichiarato: “I truffatori non useranno questo strumento, cercheranno di ingannarvi e si inventeranno qualcosa. Se qualcuno decide di celare queste informazioni, probabilmente non dovresti credergli”.

Horvitz ha detto che stanno testando diversi prototipi. Uno di questi indica se qualcuno ha cercato di manomettere un video. Viene visualizzato un simbolo dorato che dice: “Credenziali di contenuto incomplete”. Se lo vedete fate un passo indietro, siate scettici.

Conclusioni

Ora, le credenziali non saranno una pallottola d’argento. Saranno necessarie anche leggi ed educazione, in modo che la gente possa rilevare ogni tipo di deepfake.

Ma nei prossimi due anni inizierete a vedere quel pulsante speciale su ogni foto e video online, o almeno su quelli che non sono falsi.

Alessia Tomaselli
Laureata in Mediazione Linguistica per le lingue inglese e spagnolo, attualmente lavora come copywriter presso s-mart.biz, società leader nella sicurezza informatica.

Articoli in evidenza

Amanti AI: entro il 2050 il sesso con robot supererà quello umano!

Molte persone ammettono di avere difficoltà a trovare il partner giusto, quindi non c’è da stupirsi che, con l’avanzamento della tecnologia, sempre più di loro si rivolgan...

DeepSeek sotto attacco: gli hacker intensificano gli assalti con botnet avanzate

Negli ultimi giorni, DeepSeek, l’innovativa piattaforma cinese di intelligenza artificiale, è diventata il bersaglio di attacchi informatici sempre più sofisticati e aggressivi. ...

Il Ministero Della Difesa, Colpito Da OverFlame! Secondo DDoS in 6 giorni

Il gruppo di hacktivisti russi OverFlame ha sferrato un nuovo attacco DDoS (Distributed Denial of Service) contro il Ministero della Difesa italiano il 30 di gennaio, segnando la seconda offensiva in ...

Lo Tsunami DeepSeek ha Colpito nel Segno: Una AI Più Democratica Bussa Alle Porte

La scorsa settimana, la società cinese DeepSeek ha rilasciato R1, il suo nuovo modello linguistico, scatenando un’ondata di reazioni nel settore dell’intelligenza artificiale. Non s...

Allarme VMware Aria: gravi vulnerabilità a rischio di esposizione di credenziali e privilegi amministrativi!

Broadcom ha recentemente rilasciato aggiornamenti di sicurezza per correggere cinque vulnerabilità in VMware Aria Operations e Aria Operations for Logs, evidenziando il rischio di sfruttamento da...