Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Una apocalisse nucleare potrebbe essere causata dalle AI. Il 36% degli esperti dello studio della Stanford prevede questo

Redazione RHC : 15 Aprile 2023 09:59

Ci stiamo forse facendo troppo prendere la mano sul discorso Intelligenza Artificiale e distruzione del mondo?

L’intelligenza artificiale può aprire la strada a nuovi audaci cambiamenti nel mondo, ma può anche portare all’olocausto nucleare se usata in modo improprio. Questa è l’opinione del 36% dei ricercatori e dei professionisti intervistati nell’ambito di uno studio dello Stanford HAI Institute. 

Il sondaggio è stato condotto nell’ambito del rapporto annuale sull’intelligenza artificiale, che, di fatto, riflette lo stato attuale del settore.

Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011 per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

La maggior parte dei partecipanti al sondaggio non crede che l’intelligenza artificiale possa rappresentare un grande pericolo nelle mani di una persona. Tuttavia, se l’IA inizia a prendere decisioni da sola, questo può sicuramente portare a conseguenze irreversibili nel tempo, questa opzione è stata supportata dalla maggior parte degli intervistati.

Secondo le statistiche pubblicamente disponibili, il numero di incidenti e controversie relativi all’IA è aumentato di 26 volte dal 2012. Alcuni incidenti di alto profilo nel 2022 includevano l’uso di video deepfake in varie situazioni, il più delle volte legate alla politica e alle relazioni internazionali.

I ricercatori ritengono che questo aumento degli incidenti sia indicativo sia dello sviluppo generale di strumenti che utilizzano l’intelligenza artificiale e sia del loro utilizzo da parte delle persone.

Secondo lo stesso rapporto, nonostante tutte le preoccupazioni, solo il 41% dei ricercatori sull’elaborazione del linguaggio naturale (PNL) ritiene che l’intelligenza artificiale dovrebbe essere realmente regolamentata. 

La scorsa settimana abbiamo già parlato anche di un esperimento chiamato ChaosGPT da parte di uno dei ricercatori di intelligenza artificiale. Il ricercatore ha eliminato le limitazioni della rete neurale, chiedendole di distruggere l’umanità e stabilire il dominio globale delle macchine. 

Sicuramente il mondo in questo periodo è alle prese con una novità che ancora non comprende bene, ma va da se che una tecnologia come l’intelligenza artificiale, sebbene solo agli inizi, possa portare grossi problemi al nostro mondo se mal regolamentata.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.