Alessia Tomaselli : 29 Luglio 2023 15:30
I ricordi possono essere difficili da conservare per le macchine AI come per gli esseri umani. Per capire perché le macchine artificiali sviluppano dei buchi nei loro processi cognitivi, gli ingegneri elettrici della Ohio State University hanno analizzato quanto un processo chiamato “apprendimento continuo” influisca sulle loro prestazioni complessive.
L’apprendimento continuo avviene quando un computer viene addestrato ad apprendere una sequenza di compiti utilizzando le conoscenze accumulate dalle vecchie task.
Tuttavia, un ostacolo importante che gli scienziati devono ancora superare per raggiungere tali livelli è imparare a evitare la perdita di memoria. Un processo che negli agenti di intelligenza artificiale è noto come “dimenticanza catastrofica”. Quando le reti neurali artificiali vengono addestrate a svolgere un compito dopo l’altro, tendono a perdere le informazioni acquisite con i compiti precedenti. Un problema che potrebbe diventare problematico man mano che la società si affida sempre di più ai sistemi di AI. Come ha dichiarato Ness Shroff, un Eminent Scholar dell’Ohio e professore di informatica e ingegneria presso la Ohio State University.
Iscriviti GRATIS alla RHC Conference 2025 (Venerdì 9 maggio 2025)
Il giorno Venerdì 9 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà
la RHC Conference 2025. Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico.
La giornata inizierà alle 9:30 (con accoglienza dalle 9:00) e sarà interamente dedicata alla RHC Conference, un evento di spicco nel campo della sicurezza informatica. Il programma prevede un panel con ospiti istituzionali che si terrà all’inizio della conferenza. Successivamente, numerosi interventi di esperti nazionali nel campo della sicurezza informatica si susseguiranno sul palco fino alle ore 19:00 circa, quando termineranno le sessioni. Prima del termine della conferenza, ci sarà la premiazione dei vincitori della Capture The Flag prevista per le ore 18:00.
Potete iscrivervi gratuitamente all'evento utilizzando questo link.
Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
“Quando le applicazioni di guida automatizzata o altri sistemi robotici imparano cose nuove, è importante che non dimentichino le lezioni già apprese, per la nostra e la loro sicurezza”, ha affermato Shroff. “La nostra ricerca approfondisce le complessità dell’apprendimento continuo in queste reti neurali artificiali. E ciò che abbiamo scoperto è un qualcosa che inizia a colmare il divario tra il modo in cui una macchina apprende e quello in cui un essere umano apprende”.
I ricercatori hanno scoperto che le reti neurali artificiali sono in grado di ricordare meglio le informazioni quando si trovano di fronte a compiti diversi. Al contrario, faticano a ricordare quelli che condividono caratteristiche simili, ha detto Shroff. Le persone, invece, possono faticare a ricordare fatti contrastanti su scenari simili, ma ricordano con facilità situazioni intrinsecamente diverse.
Il team, che comprende i ricercatori post-dottorato Sen Lin e Peizhong Ju e i professori Yingbin Liang e Shroff, presenterà la propria ricerca alla fine del mese alla 40a Conferenza internazionale sull’apprendimento automatico di Honolulu. Si terrà nelle Hawaii e sarà una delle principali conferenze sull’apprendimento automatico.
Può essere difficile insegnare ai sistemi autonomi ad utilizzare questo tipo di apprendimento dinamico e continuo, ma il possesso di tali capacità consentirebbe agli scienziati di scalare gli algoritmi di apprendimento automatico a un ritmo più veloce e di adattarli facilmente per gestire ambienti in evoluzione e situazioni inaspettate. In sostanza, l’obiettivo di questi sistemi sarebbe quello di imitare un giorno le capacità di apprendimento degli esseri umani.
Gli algoritmi tradizionali di apprendimento automatico vengono addestrati attraverso tanti dati. Ma i risultati di questo team hanno dimostrato che fattori come la somiglianza dei compiti, le correlazioni negative e positive e persino l’ordine in cui un algoritmo viene istruito su un compito influiscono sul tempo in cui una macchina artificiale conserva determinate conoscenze.
Per esempio, per ottimizzare la memoria di un algoritmo è necessario insegnare compiti dissimili fin dalle prime fasi del processo di apprendimento continuo. Questo metodo espande la capacità della rete di recepire nuove informazioni e migliora la sua capacità di apprendere successivamente compiti più simili.
Il loro lavoro è così importante perché capire le somiglianze tra le macchine e il cervello umano aprirebbe la strada a una comprensione più profonda dell’AI.
“Il nostro lavoro preannuncia una nuova era di macchine intelligenti in grado di apprendere e adattarsi come le loro controparti umane”, ha aggiunto.
Lo sviluppo di supercomputer per l’intelligenza artificiale sta entrando in una nuova orbita: in termini di scala, costi e consumi energetici e infrastrutture e megaprogetti. Uno studio condott...
Il 25 Aprile, data simbolo della Liberazione italiana dal fascismo, ci ricorda il valore della libertà, conquistata con il sacrificio di partigiani e combattenti. In un’era dominata dal di...
In un mondo dove ogni giorno si registrano migliaia di attacchi informatici, molte aziende continuano a sottovalutare l’importanza della cybersecurity, affidandosi a “sedicenti esperti&#...
AI, AI e ancora AI. E sembra che l’intelligenza artificiale giorno dopo giorno ci porti innovazioni sia come difesa ma soprattutto, come attacco. L’intelligenza artificiale è gi...
Il collettivo di ricerca in sicurezza informatica HackerHood, parte dell’universo della community di Red Hot Cyber, ha recentemente scoperto due nuove vulnerabilità ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006