Redazione RHC : 23 Giugno 2023 16:44
I ricercatori nel Regno Unito e in Canada mettono in guardia sui pericoli dell’addestramento di modelli di intelligenza artificiale (IA) con dati generati da altri modelli di intelligenza artificiale. In un articolo pubblicato su arXiv.org intitolato “The Curse of Recursion: Learning from Generated Data Causes Models to Forget”, hanno dimostrato che questo approccio può portare a un graduale deterioramento della qualità e del realismo di questi dati.
Il collasso del modello è un processo degenerativo in base al quale i modelli nel tempo dimenticano la vera distribuzione dei dati e iniziano a interpretare erroneamente ciò che pensano sia reale, rafforzando le proprie convinzioni.
Questo fenomeno ricorda l’oblio catastrofico e l’avvelenamento dei dati, che possono anche avere un impatto negativo sull’apprendimento dell’IA. Nell’oblio catastrofico, il modello “dimentica” i dati precedenti quando apprende nuove informazioni. L’avvelenamento dei dati è l’introduzione dannosa di informazioni false nelle origini dati.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Gli autori dell’articolo hanno condotto esperimenti con modelli di IA testuali e grafici e hanno scoperto che l’addestramento sui dati prodotti da altri modelli porta a un rapido deterioramento della qualità dei dati generati. “Siamo rimasti sorpresi nel vedere quanto velocemente il modello collassa: i modelli possono dimenticare rapidamente gran parte dei dati di input da cui hanno originariamente appreso”, ha affermato Ilya Shumailov, uno degli autori dell’articolo, dell’Università di Oxford.
Come ha affermato il collega e autore Ross Anderson dell’Università di Cambridge e dell’Università di Edimburgo, “Proprio come abbiamo disseminato gli oceani di detriti di plastica e riempito l’atmosfera di anidride carbonica, così riempiremo Internet di sciocchezze”.
I ricercatori offrono diversi modi per affrontare il collasso del modello. Uno di questi è conservare i dati originali creati dall’uomo per addestrare modelli futuri. L’altro approccio è tenere conto delle minoranze e degli eventi rari nei set di dati. Il terzo è controllare la qualità e le fonti dei dati utilizzati per l’addestramento dell’IA.
La notizia è stata anticipata da politico.eu: a partire da maggio 2025, la Commissione von der Leyen revisionerà il GDPR introducendo semplificazioni. Certo, non sarebbe male pubblicare prim...
Oggi i bambini sono un po’ più al sicuro grazie ad una operazione di polizia coordinata da Europol che ha portato alla chiusura di Kidflix. Si tratta di una delle più grandi piattafor...
Uno degli autori di Flipper Zero, Pavel Zhovner, ha condiviso i dettagli su come stanno procedendo i lavori su una nuova versione del multi-strumento per hacker: Flipper One. Lo sviluppatore ha pubbli...
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006