
Redazione RHC : 22 Giugno 2023 08:02
Scienziati tedeschi e statunitensi hanno condotto delle analisi e sono giunti alla conclusione che sarà impossibile controllare l’intelligenza artificiale (AI), quando questa supererà la comprensione umana. Il loro studio è stato pubblicato nel Journal of Artificial Intelligence Research nel 2021. Da allora è stato aggiornato per riflettere i progressi dell’IA fin al 2023.
Gli autori sostengono che per controllare l’IA super-intelligente, è necessario creare un modello del suo comportamento e analizzarlo. Tuttavia, se non siamo in grado di comprenderne gli obiettivi e i metodi per raggiungere questo scopo, non saremo in grado di sviluppare un tale modello.
Principi come “non nuocere alle persone” non possono essere applicati, perché non sappiamo quali scenari l’IA potrà sviluppare, sottolineano gli autori.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)? Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Si riferiscono anche al problema dell’arresto proposto e predetto da Alan Turing nel 1936. L’essenza del problema è che è impossibile determinare in anticipo se un programma per computer completerà il suo lavoro o lo cercherà di risolvere all’infinito. Turing ha dimostrato che questo era logicamente irraggiungibile per qualsiasi programma implementabile per quell’epoca.
Gli autori propongono di limitare le capacità dell’IA, ad esempio disconnettendola da determinati segmenti di Internet o reti specifiche. Ma anche gli scienziati respingono questa idea perché riduce l’utilità dell’IA. Gli esperti fanno anche una domanda: se non useremo l’IA per risolvere problemi al di là delle capacità umane, allora perché dovremmo crearla?
Se continuiamo a sviluppare l’intelligenza artificiale, potremmo non notare l’emergere delle AI super intelligenti le quali possono sfuggire dal nostro controllo, poiché sarà per noi incomprensibile.
Redazione
Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...

Le spie informatiche cinesi sono rimaste nascoste per anni nelle reti di organizzazioni critiche, infettando le infrastrutture con malware sofisticati e rubando dati, avvertono agenzie governative ed ...

Nove mesi dopo la sua implementazione in Europa, lo strumento di intelligenza artificiale (IA) conversazionale di Meta, integrato direttamente in WhatsApp, sarà oggetto di indagine da parte della Com...