Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Intelligenza Artificiale Accessibile a Tutti: Creare e Sfruttare le API con Large Language Models

Marcello Politi : 15 Gennaio 2024 07:04

Il boom dei Large Language Models (LLMs) ha avvicinato molte persone, non solo i data scientist, al mondo dell’Intelligenza Artificiale. Tutti stanno utilizzando questi modelli nelle loro applicazioni e certamente non è necessario essere esperti di Machine Learning per farlo, è sufficiente utilizzare le API fornite da modelli pre-addestrati e ottenere i loro output!

Vediamo quindi in questo articolo come creare e utilizzare le API in inferenza (cioè per fare predizioni) in tempo reale, su dati propri, in modo da integrarle in applicazioni complesse.

Gli LLMs sono modelli enormi che contengono milioni se non miliardi di parametri, e che sono stati addestrati su enormi quantità di dati testuali (in breve, su tutto ciò che si trova sul web) e sono in grado di processarlo e risolvere svariati task. Una delle cose più curiose di questi modelli è che hanno dimostrato capacità emergenti, su cui non sono mai stati addestrati. Ad esempio, sono in grado di risolvere piccoli problemi matematici o logici senza essere stati addestrati specificamente su di essi. Oppure sono in grado di interagire con l’utente come in una chat in modo naturale.

Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.

Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.

Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

Molte realtà si stanno avvicinando solo di recente al mondo dell’Intelligenza Artificiale e vogliono utilizzare le possibilità offerte dal Machine Learning per creare prodotti o offrire nuovi servizi. Spesso, per creare un prodotto basato sull’IA di valore, è critica la velocità con cui è possibile lanciarlo sul mercato. Quindi, in questo articolo, voglio parlare di come utilizzare Hugging Face per la prototipazione rapida.

Hugging Face

Hugging Face (HF) è una delle piattaforme leader in ambito di ricerca e lo sviluppo nel processamento del linguaggio naturale (NLP) ed ormai dell’AI in generale. HF si basa su un approccio aperto e collaborativo alla ricerca, coinvolgendo sviluppatori e ricercatori provenienti da tutto il mondo. Gli utenti possono condividere i loro progetti, scambiare idee e collaborare per migliorare e sviluppare nuovi modelli. Questo approccio open-source e condiviso favorisce la crescita e l’innovazione nel campo dell’intelligenza artificiale, accelerando il progresso e la scoperta.

Uno dei servizi più ampiamente utilizzati forniti da HF è l’inference API, che offre un modo ai developer per interagire con i modelli di intelligenza artificiale con quello che stanno sviluppando.

Ci sono diversi modelli che risolvono differenti task le cui API possono essere esposte. Esaminiamo alcuni modelli e casi d’uso:

  • Modelli di Classificazione: rilevamento dello spam, analisi del sentiment, etichettatura dei topic
  • Modelli di Q&A: centri di assistenza online, assistenza virtuale ai clienti
  • Modelli di Agenti Conversazionali: integrazione assistente vocale
  • Modelli di Image Captioning: ottimizzazione delle foto, accelerazione della creazione di contenuti
  • Modelli di Sintesi Vocale: automazione IVR, Narrazione personalizzata di audiolibri/podcast
  • Modelli di Generazione di Testi: biglietti d’auguri personalizzati, ottimizzazione delle righe oggetto delle email
  • Modelli di Riconoscimento di Entità: tagging degli articoli di notizie, gestione CRM, monitoraggio dei social media
  • Modelli di Analisi del Sentiment: mining delle opinioni per sondaggi, chatbot per il servizio clienti, valutazione delle campagne di marketing
  • Modelli di Traduzione Automatica: descrizioni di prodotti multilingue, gestione della corrispondenza estera, chatbot per l’industria turistica
  • Modelli di Chatbot: agenti virtuali intelligenti, generazione di potenziali clienti per le vendite

Hugging Face Inference API

La prima cosa da fare è ovviamente registrarsi alla piattaforma.

Nelle impostazioni del vostro account, vedrete il vostro Token per le API, che vi servirà per utilizzare i modelli.

Guardate il token e salvatelo in maniera sicura.

Quindi ora scegliete un modello da utilizzare, a seconda del task che volete risolvere. Ad esempio, ora voglio cercare un modello di classificazione del testo per l’analisi del sentimento.

Scelgo un modello in particolare che mi interessa, da un elenco di modelli che la piattaforma offre, ce ne sono tantissimi!

Un modello è sempre affiancato da una scheda (o model card), che è più o meno dettagliata sulle caratteristiche del modello e su come è stato addestrato, ecc.

Facendo clic sul pulsante Deploy nell’angolo in alto a destra, apparirà un menu a tendina in cui si potrà selezionare la voce Inference API.

L’API di inferenza farà aprire una finestra che spiega passo dopo passo come utilizzare il modello. Queste API sono molto utili perché consentono di creare prototipi se si lavora su progetti basati sull’intelligenza artificiale in modo molto rapido.

Proviamo ora a seguire le indicazioni di questa finestra e a eseguire il codice.

Come potete osservare dall’imagine sopra, si ottiene un risultato che è uno score che indica se la frase è negativa, neutra o positiva.

Vediamo ora un altro esempio con un altro modello. Vorrei usare un modello di question anwsering , in cui si fornisce al modello del contesto e una domanda, e questo sarà in grado di rispondere alla domanda estraendo la risposta dal contesto. Per prima cosa, selezioniamo il modello.

Ora utilizziamo l’API di inferenza.

Proviamo un altro modello di summarization in questo caso. Come suggerisce il nome, il modello restituirà il riassunto di un testo.

Output: The tower is 324 metres (1,063 ft) tall, about the same height as an 81-storey building. Its base is square, measuring 125 metres (410 ft) on each side. During its construction, the Eiffel Tower surpassed the Washington Monument to become the tallest man-made structure in the world.

Conclusioni

In questi esempi, ho usato principalmente modelli di NLP, che quindi lavorano sul linguaggio. Ad oggi, HuggingFace fornisce modelli per tutti i tipi di problemi, dalla computer vision al reinforcement learning.

L’API di inferenza di Hugging Face, se utilizzata bene, può essere uno strumento molto utile. Pensate ad esempio alle startup che lavorano in modalità Agile e ha bisogno creare un prototipo in modo rapido, per iniziare a raccogliere feedback sul prodotto o per avere un primo MVP. La inference API consente una prototipazione rapida e vi permetterà di creare un MVP in pochissimo tempo!

Marcello Politi
Esperto di intelligenza artificiale con una grande passione per l'esplorazione spaziale. Ho avuto la fortuna di lavorare presso l'Agenzia Spaziale Europea, contribuendo a progetti di ottimizzazione del flusso di dati e di architettura del software. Attualmente, sono AI Scientist & Coach presso la PiSchool, dove mi dedico alla prototipazione rapida di prodotti basati sull'intelligenza artificiale. Mi piace scrivere articoli riguardo la data science e recentemente sono stato riconosciuto come uno dei blogger più prolifici su Towards Data Science.