
I ricercatori dell’organizzazione no-profit Epoch AI hanno analizzato una analisi dove parlano delle prospettive di sviluppo dell’intelligenza artificiale fino al 2030. Hanno esaminato quattro fattori chiave che potrebbero limitare i progressi in quest’area: consumo energetico, disponibilità dei chip, volume dei dati di addestramento e latenza di elaborazione.
Secondo il rapporto, la potenza di calcolo utilizzata per addestrare i modelli di intelligenza artificiale quadruplica ogni anno. Se questa tendenza continuerà fino alla fine del decennio, entro il 2030, la formazione sull’intelligenza artificiale utilizzerà 10.000 volte più risorse rispetto agli algoritmi più avanzati di oggi, come GPT-4 di OpenAI.
Gli esperti sottolineano che i moderni sistemi di intelligenza artificiale consumano già quantità significative di energia. Ad esempio, l’addestramento dell’ultimo modello di Meta ha richiesto il consumo energetico costante paragonabile a 23.000 famiglie statunitensi. Ed entro il 2030, anche con miglioramenti in termini di efficienza, l’addestramento di un modello di IA avanzato potrebbe richiedere una potenza 200 volte maggiore. Questo rappresenta già il 30% del consumo energetico di tutti i moderni data center.
Per superare le limitazioni, le aziende possono distribuire il processo di formazione su più data center. Questo approccio è già utilizzato da Google durante l’addestramento del modello Gemini Ultra. Tuttavia, richiede connessioni in fibra ultraveloci e con larghezza di banda elevata. In termini di chip, i ricercatori prevedono che entro il 2030 saranno disponibili tra i 20 e i 400 milioni di processori dedicati per eseguire l’intelligenza artificiale. Ciò potrebbe essere sufficiente per creare un modello che utilizza 50.000 volte più risorse di elaborazione rispetto a GPT-4.
Anche la quantità di dati di qualità per addestrare gli algoritmi è motivo di preoccupazione. Alcuni esperti prevedono che la disponibilità di dati testuali di alta qualità disponibili al pubblico potrebbe esaurirsi già nel 2026. Tuttavia, Epoch AI ritiene che ciò non limiterà la crescita dei modelli almeno fino al 2030.
Naturalmente le moderne reti neurali non vengono addestrate solo sui testi, ma anche su immagini, audio e video. Ciò amplia notevolmente la portata dei materiali disponibili. Inoltre, le aziende stanno sperimentando l’uso di dati sintetici. Tenendo conto di tutte le fonti, inclusi testo, contenuti multimediali e set di dati sintetici, Epoch AI stima che entro il 2030 avremo informazioni sufficienti per addestrare modelli utilizzando risorse di elaborazione 80.000 volte superiori rispetto a GPT-4.
Dopo aver confrontato tutti i fattori limitanti, gli esperti di Epoch AI sono giunti alla conclusione che è tecnicamente possibile creare modelli di intelligenza artificiale che utilizzano 10.000 volte più risorse di calcolo rispetto ai sistemi moderni. Il limite principale in questo caso sarà il consumo energetico.
Tuttavia, realizzare una crescita così massiccia richiederà ingenti investimenti. Il CEO di Anthropic, Dario Amodei, stima che il costo della formazione di un singolo modello potrebbe aumentare da 1 miliardo di dollari oggi a 10 miliardi di dollari l’anno prossimo e raggiungere i 100 miliardi di dollari negli anni successivi.
La volontà delle aziende di investire tali importi dipenderà dai vantaggi pratici dei sistemi di intelligenza artificiale. Se la scalabilità continua a portare miglioramenti significativi e nuove funzionalità, l’investimento potrebbe valerne la pena. Epoch AI stima che se l’IA riuscisse ad automatizzare una parte significativa delle attività economiche, il ritorno finanziario potrebbe essere di trilioni di dollari.
Tuttavia, alcuni critici ritengono che i modelli linguistici e multimodali di grandi dimensioni potrebbero rappresentare un costoso vicolo cieco nello sviluppo tecnologico.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…