Redazione RHC : 7 Maggio 2023 09:51
Gli scienziati della Stanford University in un loro lavoro hanno affermato che è troppo presto per considerare i grandi modelli linguistici come un “gigantesco salto di opportunità”. Secondo gli esperti, le capacità di sviluppo dell’intelligenza artificiale sono un’illusione delle persone che ci lavorano.
I ricercatori ritengono che quando si analizzano i risultati di un modello per un’attività particolare, una persona possa scegliere una metrica che porti alla conclusione di “superpotere AI o un’altra metrica che non lo fa”.
Gli scienziati di Stanford hanno studiato i risultati del lavoro con GPT-3 e hanno scoperto che i superpoteri nell’intelligenza artificiale compaiono solo quando vengono utilizzate determinate metriche.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
La scelta di una dimensione “non lineare” o “discontinua” può portare a quello che sembra essere un cambiamento brusco e imprevedibile, che viene poi erroneamente considerato un’abilità emergente.
In effetti, la curva delle prestazioni è andata crescendo gradualmente per tutto questo tempo, senza fare “salti da gigante”. Quando i ricercatori hanno cambiato la misurazione dei risultati da una metrica non lineare a una lineare, lo sviluppo del modello è diventato prevedibile e fluido, escludendo le abilità emergenti.
Ad esempio, l’abilità GPT-3 è stata assegnata per eseguire compiti aritmetici con numeri interi, vale a dire l’aggiunta di due numeri interi a cinque cifre. Secondo i ricercatori, molte persone credono che i piccoli modelli non possano svolgere tale compito. Ma dopo aver raggiunto una certa scala, l’intelligenza artificiale è improvvisamente diventata brava ad aggiungere numeri. Questo dà motivo di preoccupazione.
Ad esempio, potresti avere un modello che “si comporta bene ed è affidabile”, ma se addestri un altro modello con molti dati o molti parametri, può diventare tossico, fuorviante o dannoso in modo imprevedibile.
Gli scienziati hanno notato che non esiste un enorme salto di opportunità. Quando gli esperti hanno rivisto le metriche utilizzate per la valutazione, hanno scoperto che i modelli linguistici espandono le loro capacità in modo graduale e prevedibile.
Apple ha rilasciato patch di emergenza per correggere due vulnerabilità zero-day. Secondo l’azienda, questi problemi sono stati sfruttati in attacchi mirati ed “estremamen...
Quanto accaduto in questi giorni deve rappresentare un campanello d’allarme per l’Europa.Mentre il programma CVE — pilastro della sicurezza informatica globale — rischiava ...
Il 16 aprile 2025, Spotify ha subito un’interruzione del servizio che ha colpito numerosi utenti in Italia e nel mondo. A partire dalle ore 14:00, migliaia di segnalazioni sono state re...
Fourlis Group, il gestore dei negozi IKEA in Grecia, Cipro, Romania e Bulgaria, ha dichiarato di aver subito un attacco ransomware prima del Black Friday del 27 novembre 2024, che ha causato...
Noi di Red Hot Cyber lo diciamo da tempo: affidarsi esclusivamente a infrastrutture critiche gestite da enti statunitensi è un rischio per l’autonomia strategica europea. È anni che s...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006