Redazione RHC : 26 Dicembre 2024 08:53
Il 20 dicembre, il nuovo sistema di intelligenza artificiale di OpenAI, o3, ha raggiunto un traguardo importante. Il modello ha ottenuto un punteggio dell’85% nel test di pensiero ARC-AGI, che è lo stesso del punteggio umano medio. Oltre a questo, eccelleva nei problemi di matematica complessi.
Fino ad ora, il miglior risultato tra sviluppi simili non ha superato il 55%. Molti ricercatori ritengono che o3 abbia compiuto un importante passo avanti verso l’intelligenza artificiale generale (AGI), anche se gli scettici dubitano ancora dell’importanza di questo risultato.
Qui è importante comprendere le caratteristiche del test ARC-AGI. L’indicatore principale in esso è “l’efficienza del campionamento”, ovvero la capacità di adattarsi alle nuove condizioni, avendo un minimo di esempi. In poche parole, il test determina quanti campioni di una nuova situazione sono necessari per comprenderne il funzionamento.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I modelli linguistici moderni come ChatGPT basati su GPT-4 non possono vantare un’elevata efficienza di campionamento. Durante l’allenamento, esaminano milioni di frammenti di testi umani e, sulla base di essi, ricavano le combinazioni di parole più probabili. Questo metodo aiuta a far fronte alle attività tipiche, ma fallisce in situazioni non standard, semplicemente perché non ci sono abbastanza esempi simili nel database.
Per ora, l’intelligenza artificiale può essere utilizzata solo dove i compiti vengono ripetuti o dove gli errori casuali non portano a conseguenze gravi. Il problema principale è che i modelli non sanno come apprendere rapidamente e adattarsi alle nuove circostanze.
La capacità di trovare soluzioni corrette a problemi non familiari sulla base di un insieme limitato di informazioni è chiamata generalizzazione da parte degli scienziati. Nella comunità scientifica questo tratto è considerato un segno necessario e fondamentale dell’intelligenza. L’ARC-AGI consiste in problemi a griglia di quadrati simili ai test del QI scolastico. Sullo schermo appaiono due immagini: lo schema iniziale e un esempio dello stato a cui dovrebbe arrivare dopo determinate manipolazioni. Il programma deve comprendere il modello di trasformazione dello stato iniziale nello stato finale.
Ogni attività viene fornita con tre esempi didattici. Dopo averli studiati, l’algoritmo deve derivare le regole e applicarle nella pratica. Questo approccio consente di verificare la rapidità con cui avviene l’adattamento.
Quando si ricercano modelli, è importante non fare supposizioni inutili o entrare in dettagli non necessari. In teoria, se si riescono a trovare le regole più semplici che siano sufficienti per una soluzione, il programma sarà in grado di adattarsi meglio alle nuove situazioni.
Le “regole semplici” di solito possono essere descritte con frasi brevi. Ad esempio, in un problema con una griglia di quadrati, la regola potrebbe essere: “La figura con la linea sporgente si sposterà fino alla fine di questa linea e coprirà tutte le figure sul suo percorso”.
Il modo esatto in cui funziona o3 è ancora sconosciuto, ma è improbabile che le sia stato specificamente insegnato a cercare “regole semplici”. OpenAI ha preso come base una versione generica del modello in grado di riflettere più a lungo su questioni complesse, quindi l’ha addestrata ulteriormente per superare il test ARC-AGI.
Il ricercatore francese sull’intelligenza artificiale Francois Chollet, che ha creato il test, suggerisce che o3 itera attraverso diverse “catene di ragionamento”, ovvero sequenze di passaggi per raggiungere un obiettivo. Quindi l’opzione migliore viene selezionata in base a determinati suggerimenti sulle regole.
Tuttavia, è troppo presto per dire quanto questo ci avvicini alla creazione dell’AGI. I meccanismi di base per lavorare con la lingua potrebbero rimanere gli stessi, solo che ora sono adattati in modo più efficace per risolvere un tipo specifico di problema.
OpenAI mantiene segrete quasi tutte le informazioni sul suo sviluppo. L’azienda si è limitata ad alcune presentazioni mediatiche e ha permesso che o3 venisse testato solo da alcuni ricercatori, laboratori e organizzazioni che lavorano sulla sicurezza dell’IA.
Un avviso è comparso sul sito ufficiale di Busitalia, la società del gruppo Ferrovie dello Stato che gestisce il trasporto pubblico nelle province di Padova e Rovigo. In mezzo agli aggiornam...
Abbiamo già osservato come il tempo tra la divulgazione pubblica di un exploit e il suo sfruttamento reale si stia accorciando sempre di più. Questa tendenza è direttamente legata alla ...
Nelle ultime ore è comparso su sul noto forum underground chiuso in lingua russa XSS un annuncio particolarmente interessante pubblicato dall’utente redblueapple2. L’inserzione prop...
Abbiamo spesso su Red Hot Cyber ripetuto questa frase: ‘Combattere il cybercrime è come estirpare le erbacce: se lasci le radici, ricresceranno.’ Oggi, più che mai, questa veri...
Microsoft ha rilasciato un aggiornamento di sicurezza critico per risolvere il CVE-2025-29810, una vulnerabilità di elevazione dei privilegi che colpisce Active Directory Domain Services (AD DS)....
Copyright @ REDHOTCYBER Srl
PIVA 17898011006