Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Google DeepMind: siamo ad un passo dall’intelligenza artificiale generale (AGI). “La sicurezza è fondamentale”

Redazione RHC : 5 Maggio 2023 09:43

Il capo della divisione di intelligenza artificiale di Google, DeepMind, ha previsto che l’intelligenza artificiale a livello umano potrebbe emergere entro pochi anni. 

Demis Hassabis prevede l’emergere dell’intelligenza artificiale generale (AGI) – sistemi che possono pensare in modo simile e superiore agli umani – molto prima delle previsioni espresse in precedenza. 

Molti presumevano che questa tecnologia potesse apparire solo tra decenni.

Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011 per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

“I progressi negli ultimi anni sono stati piuttosto incredibili”, ha dichiarato Hassabis al festival Future of Everything questa settimana. “Non vedo alcun motivo per cui questo progresso possa rallentare. Penso che potrebbe anche accelerare. Quindi penso che potremmo essere a pochi anni di distanza, forse entro un decennio”.

Il signor Hassabis è uno dei massimi esperti nel campo dell’intelligenza artificiale che cerca di sviluppare una forma di AGI, nonché di creare salvaguardie per prevenire danni causati da questa tecnologia all’umanità.

“Suggerirei di sviluppare tali tecnologie AGI in modo prudente, utilizzando il metodo scientifico, in cui si tenta di eseguire esperimenti controllati molto rigorosi per capire cosa sta facendo il sistema sottostante”, ha affermato.

Gato AI di DeepMind, descritto come un “agente universale”, è già vicino a rivaleggiare con l’intelligenza umana, secondo il direttore della ricerca dell’azienda Nando de Freitas. È in grado di eseguire una serie di compiti complessi, dall’impilare blocchi alla scrittura di poesie, oltre a impegnarsi in dialoghi simili al chatbot ChatGPT di OpenAI.

“Ora è tutta una questione di scala”, ha detto il dottor de Freitas l’anno scorso.

“Ora si tratta di costruire modelli più grandi, più sicuri, più efficienti dal punto di vista computazionale, una selezione più rapida dei campioni, un utilizzo più intelligente della memoria, più modalità, dati innovativi, online e offline… La risoluzione di questi problemi consentirà di raggiungere l’AGI”. Ha aggiunto: “La sicurezza è fondamentale”.

I ricercatori di DeepMind parlano di rischi significativi associati all’intelligenza artificiale se raggiunge e supera il livello dell’intelligenza umana e propone una soluzione per evitare che l’AI avanzata fallisca.

In un articolo del 2016 intitolato “Agenti interrompibili in modo sicuro”, DeepMind ha suggerito di utilizzare il “pulsante rosso” come kill switch in una situazione del genere.

“L’interruzione sicura può essere utile per controllare un robot che si comporta male e può portare a conseguenze irreversibili”, afferma l’articolo.

Se un agente di questo tipo opera in tempo reale sotto il controllo umano, può occasionalmente essere necessario che l’operatore prema un grosso pulsante rosso per impedire all’agente di continuare una sequenza di azioni dannose – dannose sia per l’agente che per l’ambiente – e indirizzare l’agente in una direzione più sicura.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.