
Nel sempre mutevole mondo del Machine Learning, selezionare il modello più efficace per un determinato compito è un impegno non banale, che può richiedere molto tempo. Tradizionalmente, i metodi di valutazione cosi detti offline, come lo split tra dati di training e test o la k-fold cross validation sono quelli più conosciuti e utilizzati dai data scientist. Tuttavia, possono risultare carenti nel considerare cambiameni della distribuzione che possono verificarsi in scenari reali. In poche parole il modello potrebbe essere stato trainato su dei dati che pero non sono simili a quelli reali che il modello deve gestire quando è in produzione. Entra in gioco la valutazione online, un metodo condotto dopo l’implementazione e il deploy, che offre preziosi dettagli sulle prestazioni del modello in un ambiente dinamico.
Il “deployment ombra” comporta il lancio simultaneo di entrambi i modelli, con tutte le richieste dirette a ciascun modello in parallelo. La successiva raccolta di dati consente un’analisi approfondita per identificare il modello che offre le prestazioni migliori. Tuttavia, è essenziale notare che questo approccio comporta uno svantaggio: il costo di inferenza è raddoppiato poiché entrambi i modelli sono interrogati per ciascuna richiesta.
Il test A/B, forse il metodo più comunemente utilizzato, comporta il deployment di entrambi i modelli e la suddivisione casuale del traffico tra di essi. La successiva valutazione viene condotta sui log, utilizzando test di ipotesi statistica per accertare se uno dei modelli supera significativamente l’altro. Questo metodo fornisce un robusto quadro statistico per prendere decisioni informate sulla selezione del modello.
In situazioni in cui il rilascio di una nuova versione di un modello comporta rischi potenziali, il metodo di rilascio canary offre un approccio graduale e controllato. Invece di reindirizzare casualmente il traffico con una suddivisione del 50% tra i modelli A e B, una piccola parte del traffico viene reindirizzata al nuovo modello (modello canary). Se il modello canary ha prestazioni positive, il reindirizzamento del traffico aumenta gradualmente fino a gestire il 100% del carico.
Per i sistemi in cui l’interazione dell’utente svolge un ruolo fondamentale, come nei sistemi di raccomandazione, gli esperimenti interattivi offrono una straordinaria via per la valutazione del modello. Utilizzando contemporaneamente entrambi i modelli, agli utenti viene chiesto di fornire feedback selezionando la loro preferenza. Questo approccio guidato dall’utente offre preziosi dettagli sulle preferenze degli utenti e sull’efficacia di ciascun modello.
Mentre il test A/B è spesso considerato un approccio senza stato, i meccanismi di tipo bandit introducono una dimensione con stato alla valutazione del modello. Utilizzando algoritmi complessi, questi meccanismi monitorano continuamente le prestazioni di ciascun modello in tempo quasi reale. Questa valutazione continua consente una redistribuzione dinamica del traffico, cercando un equilibrio tra la sperimentazione del nuovo modello e la minimizzazione dell’impatto complessivo sulle prestazioni del sistema.
Nel Machine Learning, la ricerca del modello ottimale coinvolge una serie di metodi di valutazione offline e online. Dallo shadow deployment ai test A/B, dai canary release agli esperimenti interattivi e ai meccanismi bandit, ciascun approccio offre una prospettiva unica. Mentre il panorama dell’apprendimento automatico continua a evolversi, una comprensione articolata di questi metodi di valutazione permette agli operatori del settore di prendere decisioni informate, assicurando il rilascio di modelli robusti che resistono alle sfide degli scenari reali.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeC’è un momento preciso, quasi sempre notturno, in cui la curiosità supera la prudenza. Un repository appena aperto, poche stelle ma un exploit dal punteggio altissimo, il file README scritto bene quanto basta da sembrare…
CybercrimeUna campagna di cyberspionaggio su larga scala, caratterizzata da un elevato livello di automazione, sta colpendo in modo sistematico l’infrastruttura cloud che supporta numerose applicazioni web moderne. In meno di 48 ore, decine di migliaia…
InnovazionePier Giorgio Perotto (per chi non conosce questo nome), è stato un pioniere italiano dell’elettronica, che negli anni 60 quando lavorava presso la Olivetti, guidò il team di progettazione che costruì il Programma 101 (o…
VulnerabilitàQuando si parla di sicurezza informatica, non si può mai essere troppo prudenti. Inoltre quando si parla di backdoor (o di presunte tali), la domanda che segue è: chi l’ha inserita? Era per scopo di…
CybercrimeSecondo quanto appreso da fonti interne di RedHotCyber, l’offensiva digitale che sta creando problemi al Sistema Postale Nazionale in Francia è stata ufficialmente rivendicata dal collettivo hacker filo-russo NoName057(16). Gli analisti confermano che l’azione rientra…