Redazione RHC : 23 Giugno 2023 16:44
I ricercatori nel Regno Unito e in Canada mettono in guardia sui pericoli dell’addestramento di modelli di intelligenza artificiale (IA) con dati generati da altri modelli di intelligenza artificiale. In un articolo pubblicato su arXiv.org intitolato “The Curse of Recursion: Learning from Generated Data Causes Models to Forget”, hanno dimostrato che questo approccio può portare a un graduale deterioramento della qualità e del realismo di questi dati.
Il collasso del modello è un processo degenerativo in base al quale i modelli nel tempo dimenticano la vera distribuzione dei dati e iniziano a interpretare erroneamente ciò che pensano sia reale, rafforzando le proprie convinzioni.
Questo fenomeno ricorda l’oblio catastrofico e l’avvelenamento dei dati, che possono anche avere un impatto negativo sull’apprendimento dell’IA. Nell’oblio catastrofico, il modello “dimentica” i dati precedenti quando apprende nuove informazioni. L’avvelenamento dei dati è l’introduzione dannosa di informazioni false nelle origini dati.
CORSO NIS2 : Network and Information system 2
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce.
Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.
Accedi All'Anteprima del Corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Gli autori dell’articolo hanno condotto esperimenti con modelli di IA testuali e grafici e hanno scoperto che l’addestramento sui dati prodotti da altri modelli porta a un rapido deterioramento della qualità dei dati generati. “Siamo rimasti sorpresi nel vedere quanto velocemente il modello collassa: i modelli possono dimenticare rapidamente gran parte dei dati di input da cui hanno originariamente appreso”, ha affermato Ilya Shumailov, uno degli autori dell’articolo, dell’Università di Oxford.
Come ha affermato il collega e autore Ross Anderson dell’Università di Cambridge e dell’Università di Edimburgo, “Proprio come abbiamo disseminato gli oceani di detriti di plastica e riempito l’atmosfera di anidride carbonica, così riempiremo Internet di sciocchezze”.
I ricercatori offrono diversi modi per affrontare il collasso del modello. Uno di questi è conservare i dati originali creati dall’uomo per addestrare modelli futuri. L’altro approccio è tenere conto delle minoranze e degli eventi rari nei set di dati. Il terzo è controllare la qualità e le fonti dei dati utilizzati per l’addestramento dell’IA.
OpenSSL ha emesso un avviso di sicurezza invitando gli utenti ad effettuare immediatamente l’aggiornamento per mitigare il rischio critico di una vulnerabilità di sicurezza di elevata grav...
Art. 640 ter C.P. (Frode Informatica) Oggi basta scrivere all’interno del proprio browser di ricerca, la parola Trading per essere indirizzati su centinaia di siti, che promettono guadagn...
Spesso parliamo degli spyware come Paragon, Pegasus e Karma. Ma alla fine , cosa consente a questi spyware di infettare i device e quindi fornire accesso e il controllo completo ad eventuale aggressor...
La privacy negli Stati Uniti è un tema di dibattito costante, soprattutto nell’era digitale. La Corte Suprema ha avuto un ruolo centrale nell’interpretazione del Quarto Emendamento,...
I ricercatori di NowSecure hanno avviato un audit di sicurezza sull’app mobile DeepSeek per iOS e hanno scoperto gravi problemi. Il principale è che l’applicazione trasmet...
Copyright @ 2003 – 2024 REDHOTCYBER Srl
PIVA 17898011006