Redazione RHC : 7 Novembre 2023 11:16
A meno di un anno dalla sua fulminea ascesa, la società dietro ChatGPT ha svelato lunedì il futuro che ha in mente per la sua tecnologia di intelligenza artificiale, lanciando una nuova linea di prodotti chatbot che possono essere personalizzati per una varietà di attività.
“Alla fine, chiederai semplicemente al computer ciò di cui hai bisogno e lui farà tutte queste attività per te”, ha detto Sam Altman, CEO di OpenAI, a una folla esultante di oltre 900 sviluppatori di software e altri partecipanti. È stata la conferenza inaugurale degli sviluppatori di OpenAI, che abbracciava una tradizione all’interno della Silicon Valley per le vetrine tecnologiche di cui Apple ha contribuito a essere pioniere molti anni fa.
All’evento tenutosi in una cavernosa ex concessionaria Honda a San Francisco, città natale di OpenAI, la società ha presentato una nuova versione chiamata GPT-4 Turbo che, a suo dire, è più capace e può recuperare informazioni su eventi mondiali e culturali recenti fino ad aprile 2023, a differenza di versioni precedenti che non potevano rispondere a domande su nulla dopo il 2021.
Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011
per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Ha inoltre pubblicizzato una nuova versione del suo modello di intelligenza artificiale chiamata GPT-4 with vision, o GPT-4V, che consente al chatbot di analizzare le immagini. In un documento di ricerca di settembre, l’azienda ha mostrato come lo strumento potrebbe descrivere cosa c’è nelle immagini a persone non vedenti o ipovedenti. ChatGPT ha più di 100 milioni di utenti attivi settimanali e 2 milioni di sviluppatori, diffusi “interamente con il passaparola”, ha affermato Altman.
Ha anche presentato una nuova linea di prodotti chiamati GPT che consentiranno agli utenti di creare le proprie versioni personalizzate di ChatGPT per attività specifiche. Alyssa Hwang, ricercatrice informatica presso l’Università della Pennsylvania che ha avuto un primo assaggio dello strumento di visione GPT, ha affermato che è “così efficace nel descrivere un sacco di diversi tipi di immagini, non importa quanto complicate fossero”, ma necessitava di alcuni miglioramenti.
Ad esempio, nel tentativo di testare i suoi limiti, Hwang ha aggiunto un’immagine di bistecca con una didascalia sulla zuppa di noodle al pollo, confondendo il chatbot facendogli descrivere l’immagine come qualcosa a che fare con la zuppa di noodle al pollo.
“Ciò potrebbe portare ad alcuni attacchi avversari”, ha detto Hwang. “Immagina se metti del testo offensivo o qualcosa del genere in un’immagine, finirai per ottenere qualcosa che non desideri.”
Questo è in parte il motivo per cui OpenAI ha concesso a ricercatori come Hwang un accesso anticipato per aiutare a scoprire i difetti nei suoi strumenti più recenti prima del loro rilascio su vasta scala. Lunedì Altman ha descritto l’approccio dell’azienda come “implementazione iterativa graduale” che lascia il tempo per affrontare i rischi per la sicurezza.
Il percorso verso il DevDay di debutto di OpenAI è stato insolito. Fondato come istituto di ricerca senza scopo di lucro nel 2015, è diventato famoso in tutto il mondo poco meno di un anno fa con il rilascio di un chatbot che ha suscitato entusiasmo, paura del rapido progresso dell’intelligenza artificiale.
La conferenza arriva una settimana dopo che il presidente Joe Biden ha firmato un ordine esecutivo che stabilirà alcuni dei primi guardrail statunitensi sulla tecnologia dell’intelligenza artificiale. Utilizzando il Defense Production Act, l’ordine richiede agli sviluppatori di intelligenza artificiale che probabilmente includono OpenAI, il suo finanziatore Microsoft e concorrenti come Google e Meta di condividere informazioni con il governo sui sistemi di intelligenza artificiale costruiti con “livelli di prestazioni così elevati” da poter rappresentare gravi rischi per la sicurezza.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009