Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Allenando le AI con i dati creati da altre AI “riempiremo Internet di sciocchezze”

Redazione RHC : 23 Giugno 2023 16:44

I ricercatori nel Regno Unito e in Canada mettono in guardia sui pericoli dell’addestramento di modelli di intelligenza artificiale (IA) con dati generati da altri modelli di intelligenza artificiale. In un articolo pubblicato su arXiv.org intitolato “The Curse of Recursion: Learning from Generated Data Causes Models to Forget”, hanno dimostrato che questo approccio può portare a un graduale deterioramento della qualità e del realismo di questi dati.

Il collasso del modello è un processo degenerativo in base al quale i modelli nel tempo dimenticano la vera distribuzione dei dati e iniziano a interpretare erroneamente ciò che pensano sia reale, rafforzando le proprie convinzioni. 

Questo fenomeno ricorda l’oblio catastrofico e l’avvelenamento dei dati, che possono anche avere un impatto negativo sull’apprendimento dell’IA. Nell’oblio catastrofico, il modello “dimentica” i dati precedenti quando apprende nuove informazioni. L’avvelenamento dei dati è l’introduzione dannosa di informazioni false nelle origini dati.

Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

Gli autori dell’articolo hanno condotto esperimenti con modelli di IA testuali e grafici e hanno scoperto che l’addestramento sui dati prodotti da altri modelli porta a un rapido deterioramento della qualità dei dati generati. “Siamo rimasti sorpresi nel vedere quanto velocemente il modello collassa: i modelli possono dimenticare rapidamente gran parte dei dati di input da cui hanno originariamente appreso”, ha affermato Ilya Shumailov, uno degli autori dell’articolo, dell’Università di Oxford.

Come ha affermato il collega e autore Ross Anderson dell’Università di Cambridge e dell’Università di Edimburgo, “Proprio come abbiamo disseminato gli oceani di detriti di plastica e riempito l’atmosfera di anidride carbonica, così riempiremo Internet di sciocchezze”.

I ricercatori offrono diversi modi per affrontare il collasso del modello. Uno di questi è conservare i dati originali creati dall’uomo per addestrare modelli futuri. L’altro approccio è tenere conto delle minoranze e degli eventi rari nei set di dati. Il terzo è controllare la qualità e le fonti dei dati utilizzati per l’addestramento dell’IA.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.