Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

OpenAI: Amplificatore di Conoscenza o Strumento di Disinformazione?

Redazione RHC : 2 Giugno 2024 16:32

OpenAI, il creatore di ChatGPT, ha affermato di aver scoperto che i suoi strumenti di intelligenza artificiale vengono utilizzati per creare e diffondere disinformazione in operazioni legate a Cina, Iran e Israele. Mentre la guerra dell’informazione si intensifica nel periodo elettorale, la tecnologia sta diventando un’arma potente.

La società con sede a San Francisco ha affermato nel suo rapporto che diverse operazioni segrete hanno utilizzato i suoi modelli di intelligenza artificiale per generare testo e immagini in grandi volumi con meno errori rispetto al passato. Ciò includeva la creazione di commenti o risposte ai propri post. La politica di OpenAI vieta l’uso dei suoi modelli per ingannare o fuorviare.

Il contenuto della disinformazione riguardava argomenti come “il conflitto di Gaza, le elezioni in India, la politica in Europa e negli Stati Uniti e le critiche al governo cinese da parte di dissidenti cinesi e governi stranieri”, afferma OpenAI nel rapporto.

Le reti hanno utilizzato l’intelligenza artificiale anche per migliorare la propria produttività, utilizzandola per eseguire il debug del codice ed esaminare l’attività dei social media.

Le piattaforme di social media, tra cui Meta e YouTube di Google, hanno cercato di frenare la diffusione delle campagne di disinformazione, soprattutto a partire dalle elezioni presidenziali americane del 2016, quando è stato rivelato un tentativo di manipolare i voti da parte di una troll factory sconosciuta.

Sta crescendo la pressione sulle società di intelligenza artificiale come OpenAI poiché i rapidi progressi nella loro tecnologia rendono più economico e più semplice creare deepfake realistici e manipolare i media. Mentre circa 2 miliardi di persone si preparano per le elezioni di quest’anno, i politici sollecitano le aziende a implementare e rispettare misure di sicurezza adeguate.

Ben Nimmo, capo ricercatore di intelligence e indagini presso OpenAI, ha osservato in una chiamata con i giornalisti che le campagne non sono state in grado di aumentare “significativamente” la loro influenza utilizzando i modelli di OpenAI. Tuttavia, ha aggiunto: “Ora non è il momento di compiacersi. La storia dimostra che le operazioni di influenza fallite per anni possono improvvisamente avere successo se non vengono monitorate”.

OpenAI, sostenuta da Microsoft, ha affermato che si impegna a identificare tali campagne di disinformazione e sta sviluppando i propri strumenti basati sull’intelligenza artificiale per un migliore rilevamento e analisi. Il rapporto afferma inoltre che i sistemi di sicurezza dell’azienda stanno già rendendo difficile il funzionamento degli aggressori poiché i modelli si rifiutano di generare il testo o le immagini richieste.

OpenAI ha anche rivelato che diversi importanti attori della disinformazione sponsorizzata dallo stato hanno utilizzato i suoi strumenti. Tra questi, ad esempio, c’è la rete cinese Spamouflage, che promuove gli interessi di Pechino all’estero. La campagna ha utilizzato modelli OpenAI per generare testo o commenti in più lingue prima della pubblicazione su piattaforme come X.

Inoltre, è stata notata un’operazione precedentemente non segnalata chiamata Bad Grammar, che utilizzava modelli OpenAI per eseguire il debug del codice e creare brevi commenti politici che venivano poi pubblicati su Telegram.

È stato inoltre riferito che OpenAI ha fermato una campagna di disinformazione pro-Cina presumibilmente controllata da Tel Aviv da STOIC, che utilizzava modelli per generare articoli e commenti su vari social network.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.