Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Google DeepMind: siamo ad un passo dall’intelligenza artificiale generale (AGI). “La sicurezza è fondamentale”

5 Maggio 2023 09:43

Il capo della divisione di intelligenza artificiale di Google, DeepMind, ha previsto che l’intelligenza artificiale a livello umano potrebbe emergere entro pochi anni. 

Demis Hassabis prevede l’emergere dell’intelligenza artificiale generale (AGI) – sistemi che possono pensare in modo simile e superiore agli umani – molto prima delle previsioni espresse in precedenza. 

Molti presumevano che questa tecnologia potesse apparire solo tra decenni.

“I progressi negli ultimi anni sono stati piuttosto incredibili”, ha dichiarato Hassabis al festival Future of Everything questa settimana. “Non vedo alcun motivo per cui questo progresso possa rallentare. Penso che potrebbe anche accelerare. Quindi penso che potremmo essere a pochi anni di distanza, forse entro un decennio”.

Il signor Hassabis è uno dei massimi esperti nel campo dell’intelligenza artificiale che cerca di sviluppare una forma di AGI, nonché di creare salvaguardie per prevenire danni causati da questa tecnologia all’umanità.

“Suggerirei di sviluppare tali tecnologie AGI in modo prudente, utilizzando il metodo scientifico, in cui si tenta di eseguire esperimenti controllati molto rigorosi per capire cosa sta facendo il sistema sottostante”, ha affermato.

Gato AI di DeepMind, descritto come un “agente universale”, è già vicino a rivaleggiare con l’intelligenza umana, secondo il direttore della ricerca dell’azienda Nando de Freitas. È in grado di eseguire una serie di compiti complessi, dall’impilare blocchi alla scrittura di poesie, oltre a impegnarsi in dialoghi simili al chatbot ChatGPT di OpenAI.

“Ora è tutta una questione di scala”, ha detto il dottor de Freitas l’anno scorso.

“Ora si tratta di costruire modelli più grandi, più sicuri, più efficienti dal punto di vista computazionale, una selezione più rapida dei campioni, un utilizzo più intelligente della memoria, più modalità, dati innovativi, online e offline… La risoluzione di questi problemi consentirà di raggiungere l’AGI”. Ha aggiunto: “La sicurezza è fondamentale”.

I ricercatori di DeepMind parlano di rischi significativi associati all’intelligenza artificiale se raggiunge e supera il livello dell’intelligenza umana e propone una soluzione per evitare che l’AI avanzata fallisca.

In un articolo del 2016 intitolato “Agenti interrompibili in modo sicuro”, DeepMind ha suggerito di utilizzare il “pulsante rosso” come kill switch in una situazione del genere.

“L’interruzione sicura può essere utile per controllare un robot che si comporta male e può portare a conseguenze irreversibili”, afferma l’articolo.

Se un agente di questo tipo opera in tempo reale sotto il controllo umano, può occasionalmente essere necessario che l’operatore prema un grosso pulsante rosso per impedire all’agente di continuare una sequenza di azioni dannose – dannose sia per l’agente che per l’ambiente – e indirizzare l’agente in una direzione più sicura.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Luca Vinciguerra 300x300
Machine Learning Engineer specializzato nel Natural Language Processing. Appassionato di Intelligenza Artificiale, Coding e tecnologia in generale. Aspetta l'avvento di Skynet.
Aree di competenza: Artificial Intelligence Engineer, Machine Learning & Deep Learning Specialist, Python Developer

Articoli in evidenza

Immagine del sitoCybercrime
Campagna di phishing su Signal in Europa: sospetto coinvolgimento di attori statali
Bajram Zeqiri - 07/02/2026

Le autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…