Redazione RHC : 18 Maggio 2024 09:11
Hugging Face, noto per le sue soluzioni aperte nel campo dell’intelligenza artificiale, ha annunciato il lancio del programma ZeroGPU. L’iniziativa da 10 milioni di dollari fornirà potenza di calcolo basata su GPU Nvidia legacy per uso pubblico. L’obiettivo del programma è alleggerire l’onere finanziario che i piccoli team di sviluppo devono affrontare durante la creazione di modelli di intelligenza artificiale.
Il CEO di Hugging Face, Clem Delang, ha annunciato personalmente il lancio di ZeroGPU, sottolineando che la comunità open source non dispone delle risorse di cui dispongono le grandi aziende tecnologiche, motivo per cui applicazioni come ChatGPT sono ancora le più popolari.
Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
“Stiamo lanciando ZeroGPU per fornire agli sviluppatori accademici e indipendenti l’infrastruttura per eseguire demo di intelligenza artificiale sulla piattaforma Spaces senza costi finanziari”, ha scritto Delang.
Fondata nel 2016, Hugging Face è diventata una delle principali fonti di modelli di intelligenza artificiale aperti ottimizzati per funzionare su una varietà di hardware. Ciò è stato possibile grazie alla stretta collaborazione con giganti come Nvidia, Intel e AMD.
ZeroGPU sarà disponibile tramite il servizio di hosting dell’app Hugging Face e sarà alimentato dagli acceleratori Nvidia A100 legacy. Questo modello differisce dai tradizionali fornitori di servizi cloud, che spesso richiedono impegni a lungo termine da parte dei clienti, cosa che può risultare difficile per i team di piccole dimensioni.
L’aspetto positivo dell’approccio di Hugging Face è che si concentra sull’inferenza dell’intelligenza artificiale piuttosto che sull’addestramento del modello. La formazione richiede risorse informatiche significative, il che è difficile nell’ambito di questo programma. La documentazione di ZeroGPU indica che le funzioni della GPU sono limitate a 120 secondi, il che chiaramente non è sufficiente per un allenamento completo.
Delang ha osservato che il sistema è in grado di “trattenere e rilasciare efficacemente la GPU secondo necessità”, ma i dettagli di questo processo rimangono poco chiari. Tecnologie come il time-sharing per il multitasking e la tecnologia Nvidia GPU multi-istanza (MIG) possono essere utilizzate per aumentare la disponibilità delle risorse di elaborazione.
In un contesto di carenza di GPU, con aziende come Lambda e CoreWeave che utilizzano il proprio hardware come garanzia per acquistare più acceleratori, l’iniziativa Hugging Face potrebbe rappresentare un sollievo significativo per le startup che sviluppano applicazioni IA.
Hugging Face ha recentemente raccolto 235 milioni di dollari in un round di finanziamento di serie D guidato da giganti come Google, Amazon, Nvidia e Intel. Paradossalmente, molti dei maggiori sostenitori di Hugging Face stanno sviluppando modelli proprietari che potrebbero sostituire le startup di intelligenza artificiale più piccole.
Nel frattempo, ZeroGPU è già disponibile in open beta, aprendo nuove opportunità per gli sviluppatori di intelligenza artificiale.