Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
2nd Edition GlitchZone RHC 970x120 2
UtiliaCS 320x100

Autore: Marcello Politi

Gli Agenti AI: La Rivoluzione Intelligente Spiegata a Tutti

Immaginate un collaboratore digitale che non solo risponde alle vostre domande, ma agisce per voi, pianifica strategie, impara dai propri errori e collabora con altri per risolvere problemi complessi. Questo è il mondo degli agenti AI, una delle innovazioni più sorprendenti dell’intelligenza artificiale. Ma cosa sono davvero, e come stanno cambiando il nostro modo di vivere e lavorare? Cosa sono gli agenti IA? Gli agenti AI sono software basati l’intelligenza artificiale per raggiungere obiettivi specifici, agendo con un certo grado di autonomia. Non sono semplici risponditori automatici, come i chatbot che vediamo su vari siti web, né assistenti vocali come Alexa che

Implementazione di Modelli Multimodali con LLaVA

Scopri come costruire una versione leggera di LLaVA, un modello AI multimodale che combina testo e immagini. Utilizzando CLIP e TinyLlama, il progetto è pensato per ambienti a risorse limitate come Google Colab. Ideale per chi vuole capire il funzionamento dei modelli visione-linguaggio.

Intelligenza Artificiale: Implementazione del meccanismo dell’attenzione in Python

Il meccanismo di attenzione è spesso associato all’architettura dei transformers, ma era già stato utilizzato nelle RNN (reti ricorrenti). Nei task di traduzione automatica (ad esempio, inglese-italiano), quando si vuole prevedere la parola italiana successiva, è necessario che il modello si concentri, o presti attenzione, sulle parole inglesi più importanti nell’input, utili per ottenere una buona traduzione. Non entrerò nei dettagli delle RNN, ma l’attenzione ha aiutato questi modelli a mitigare il problema vanishing gradient, e a catturare più dipendenze a lungo raggio tra le parole. A un certo punto, abbiamo capito che l’unica cosa importante era il meccanismo di attenzione e

Inheritance in Python: la chiave per scrivere codice pulito e collaborativo nel Machine Learning

Molte persone che si avvicinano al machine learning non hanno un forte background in ingegneria del software, e quando devono lavorare su un prodotto reale, il loro codice può risultare disordinato e difficile da gestire. Per questo motivo, raccomando sempre vivamente di imparare a usare le coding best practices, che ti permetteranno di lavorare senza problemi all’interno di un team e di migliorare il livello del progetto su cui stai lavorando. Oggi voglio parlare dell’inheritance di Python e mostrare alcuni semplici esempi di come utilizzarla nel campo del machine learning. Nello sviluppo software e in altri ambiti dell’informatica, il technical debt (noto

Machine Learning: il Segreto è il Modello, ma anche il Codice!

Nella maggior parte dei lavori nell’ambito di Machine Learning, non si fa ricerca per migliorare l’architettura di un modello o per progettare una nuova loss function. Nella maggior parte dei casi si deve utilizzare ciò che già esiste e adattarlo al proprio caso d’uso. È quindi molto importante ottimizzare il progetto in termini di architettura del software e di implementazione in generale. Tutto parte da qui: si vuole un codice ottimale, che sia pulito, riutilizzabile e che funzioni il più velocemente possibile. Threading è una libreria nativa di Python che non viene utilizzata così spesso come dovrebbe. Riguardo i Thread I thread

Addio Agli AI Data Center? Introduzione al DCIN per l’inferenza decentralizzata

Tradizionalmente, l’AI inference è stato il dominio di data center centralizzati e cluster di calcolo ad alte prestazioni, accessibili solo a pochi. Questo è ancora il caso per molte decentralized inference networks, dove gli operatori dei nodi devono affidarsi a hardware di fascia alta per poter guadagnare ricompense che, di fatto, servono solo a mitigare le loro spese. Questo non democratizza l’accesso all’AI: la maggior parte degli utenti non è in grado di partecipare attivamente alla fase di inference a causa degli elevati costi delle GPU, e i clienti che desiderano un decente livello di decentralizzazione o privacy si ritrovano con soluzioni

Best Practice per Progetti di Machine Learning di Successo

Gestire le integrazioni, l’implementazione, la scalabilità e tutti quegli aspetti che rendono i progetti di Machine Learning un prodotto reale è un lavoro a sé stante. C’è un motivo per cui esistono diverse posizioni lavorative che vanno dal data scientist, al Machine Learning Engineer e al MLOps expert. Tuttavia, anche se non è necessario essere esperti di questi argomenti, è bene conoscere alcune regole fondamentali e ben definite che possono aiutarvi quando avviate un progetto. In questo articolo, illustro delle best practice di sviluppo che uso, cercando un tradeoff tra la qualità del codice e il tempo investito per implementarle. Iniziare in

Come Sviluppare un’App per il Riconoscimento delle Emozioni con BERT e ONNX

In questo articolo vederemo come sviluppare un’applicazione web che riconosca una particolare emozione partendo da una frase. Per farlo, però, vedremo come addestrare un modello basato su transformer, convertirlo in formato ONNX, quantizzarlo ed eseguirlo dal front-end usando Streamlit. Ottimizzare un modello con tecniche come la quantizzazione può essere una buona idea se riusciamo a mantenere buone prestazioni, in quanto migliorerà la velocità di risposta e potremo creare un prodotto con poca latenza e garantire una maggiore user satisfaction. Per il rilevamento delle emozioni voglio utilizzare un modello basato su BERT in grado di riconoscere: rabbia, paura, gioia, amore, tristezza e sorpresa.

Ottimizza il Tuo Codice di Machine Learning con MLflow e Hydra: Un Guida Completa

Quando sviluppiamo modelli di Machine Learning, solitamente dobbiamo eseguire diversi esperimenti per capire quale settaggio degli iperparametri risulta essere il migliore per un determinato algoritmo. Questo può spesso portare a un codice lungo e sporco e a perdere traccia di quale risultato corrisponda a quale settaggio. Ho visto spesso sviluppatori fare “hard coding” (cioè inserire gli iperparametri direttamente nel codice) in modo rigido. Lanciavano quindi l’esperimento e annotavano il risultato in un file Excel. Sono certo che possiamo migliorare questo flusso di lavoro. Se siete interessati nel mio ultimo articolo ho parlato di come sviliuppare da zero una pipeline con MLflow. Oggi

MLflow

MLOps : Introduzione allo sviluppo di pipeline con Mlflow

Diverse statistiche dicono che tra il 𝟱𝟬% e il 𝟵𝟬% dei modelli di machine learning sviluppati non arrivano in produzione. Ciò è spesso dovuto a una mancata strutturazione del lavoro. Spesso le competenze acquisite in ambito accademico (o su Kaggle) non sono sufficienti per mettere in piedi un intero progetto di Machine Learning che verrà utilizzato da migliaia di persone. Una delle competenze più richieste quando si cerca un lavoro nel settore del Machine Learning è la capacità di utilizzare strumenti che consentono l’orchestrazione di pipeline complesse, come MLflow. In questo articolo vedremo come strutturare un progetto in varie fasi e gestire

Categorie