Redazione RHC : 4 Settembre 2024 16:07
I ricercatori dell’organizzazione no-profit Epoch AI hanno analizzato una analisi dove parlano delle prospettive di sviluppo dell’intelligenza artificiale fino al 2030. Hanno esaminato quattro fattori chiave che potrebbero limitare i progressi in quest’area: consumo energetico, disponibilità dei chip, volume dei dati di addestramento e latenza di elaborazione.
Secondo il rapporto, la potenza di calcolo utilizzata per addestrare i modelli di intelligenza artificiale quadruplica ogni anno. Se questa tendenza continuerà fino alla fine del decennio, entro il 2030, la formazione sull’intelligenza artificiale utilizzerà 10.000 volte più risorse rispetto agli algoritmi più avanzati di oggi, come GPT-4 di OpenAI.
Gli esperti sottolineano che i moderni sistemi di intelligenza artificiale consumano già quantità significative di energia. Ad esempio, l’addestramento dell’ultimo modello di Meta ha richiesto il consumo energetico costante paragonabile a 23.000 famiglie statunitensi. Ed entro il 2030, anche con miglioramenti in termini di efficienza, l’addestramento di un modello di IA avanzato potrebbe richiedere una potenza 200 volte maggiore. Questo rappresenta già il 30% del consumo energetico di tutti i moderni data center.
La NIS2 è complessa da capire?
Non perdere tempo, segui l'anteprima gratuita del corso che stiamo preparando.Accedi quindi alla nostra Academy e segui l'anteprima del corso della durata di 30 minuti per comprendere i contenuti esclusivi che tratteremo nel corso.per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Per superare le limitazioni, le aziende possono distribuire il processo di formazione su più data center. Questo approccio è già utilizzato da Google durante l’addestramento del modello Gemini Ultra. Tuttavia, richiede connessioni in fibra ultraveloci e con larghezza di banda elevata. In termini di chip, i ricercatori prevedono che entro il 2030 saranno disponibili tra i 20 e i 400 milioni di processori dedicati per eseguire l’intelligenza artificiale. Ciò potrebbe essere sufficiente per creare un modello che utilizza 50.000 volte più risorse di elaborazione rispetto a GPT-4.
Anche la quantità di dati di qualità per addestrare gli algoritmi è motivo di preoccupazione. Alcuni esperti prevedono che la disponibilità di dati testuali di alta qualità disponibili al pubblico potrebbe esaurirsi già nel 2026. Tuttavia, Epoch AI ritiene che ciò non limiterà la crescita dei modelli almeno fino al 2030.
Naturalmente le moderne reti neurali non vengono addestrate solo sui testi, ma anche su immagini, audio e video. Ciò amplia notevolmente la portata dei materiali disponibili. Inoltre, le aziende stanno sperimentando l’uso di dati sintetici. Tenendo conto di tutte le fonti, inclusi testo, contenuti multimediali e set di dati sintetici, Epoch AI stima che entro il 2030 avremo informazioni sufficienti per addestrare modelli utilizzando risorse di elaborazione 80.000 volte superiori rispetto a GPT-4.
Dopo aver confrontato tutti i fattori limitanti, gli esperti di Epoch AI sono giunti alla conclusione che è tecnicamente possibile creare modelli di intelligenza artificiale che utilizzano 10.000 volte più risorse di calcolo rispetto ai sistemi moderni. Il limite principale in questo caso sarà il consumo energetico.
Tuttavia, realizzare una crescita così massiccia richiederà ingenti investimenti. Il CEO di Anthropic, Dario Amodei, stima che il costo della formazione di un singolo modello potrebbe aumentare da 1 miliardo di dollari oggi a 10 miliardi di dollari l’anno prossimo e raggiungere i 100 miliardi di dollari negli anni successivi.
La volontà delle aziende di investire tali importi dipenderà dai vantaggi pratici dei sistemi di intelligenza artificiale. Se la scalabilità continua a portare miglioramenti significativi e nuove funzionalità, l’investimento potrebbe valerne la pena. Epoch AI stima che se l’IA riuscisse ad automatizzare una parte significativa delle attività economiche, il ritorno finanziario potrebbe essere di trilioni di dollari.
Tuttavia, alcuni critici ritengono che i modelli linguistici e multimodali di grandi dimensioni potrebbero rappresentare un costoso vicolo cieco nello sviluppo tecnologico.