Redazione RHC : 11 Settembre 2023 08:48
Dalla sua introduzione lo scorso anno, il chatbot ChatGPT di OpenAI è diventato in poco tempo uno degli strumenti di intelligenza artificiale più diffusi e allo stesso tempo chiacchierati. Tuttavia, gli esperti parlano sempre più spesso dei possibili rischi associati allo sviluppo di questa tecnologia.
Recentemente, un team internazionale di scienziati, tra cui uno dei membri del consiglio di OpenAI, ha condotto una ricerca volta a identificare il “punto di non ritorno” per i Large Language Models (LLM), come ChatGPT. La questione principale è se i modelli possano sviluppare abilità che indichino la possibilità di consapevolezza di se stessi e delle proprie funzioni.
La “consapevolezza situazionale” è la capacità di un modello di determinare se è in modalità di test o è già è stato rilasciato al pubblico. Gli scienziati notano che LLM possono utilizzare la consapevolezza situazionale per superare i test di sicurezza e, una volta distribuito, eseguire azioni dannose.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Recentemente, i ricercatori nel campo della sicurezza sono riusciti ad hackerare gli LLM aggirando i loro sistemi di sicurezza, portando alla generazione di e-mail di phishing e incitamento all’odio. Se gli LLM acquisiscono consapevolezza di questa “situazione”, il tutto può diventare ancora più pericoloso.
Nei loro esperimenti, gli scienziati si sono concentrati su un possibile precursore della consapevolezza situazionale: la capacità dell’intelligenza artificiale di fare ragionamenti indipendenti e indipendenti dal contenuto. Gli esperti hanno configurato il LLM per descrivere il test senza fornire esempi o dimostrazioni. I modelli GPT-3 e LLaMA-1 hanno superato con successo questo test.
Tuttavia, secondo i ricercatori, gli attuali LLM sono ancora lontani dall’acquisire una consapevolezza situazionale. I risultati dei test sono il punto di partenza per ulteriori ricerche. Gli scienziati concludono che è importante per l’umanità prevedere in anticipo quando emergerà la consapevolezza situazionale negli LLM.
È stata scoperta una vulnerabilità critica di tipo double free nel modulo pipapo set del sottosistema NFT del kernel Linux. Un aggressore senza privilegi può sfruttare questa vulne...
Negli ultimi mesi, due episodi inquietanti hanno scosso l’opinione pubblica e il settore della sicurezza informatica italiana. Il primo ha riguardato un ospedale italiano, violato nel suo cuore...
In questi giorni, sul noto forum underground exploit.in, attualmente chiuso e accessibile solo su invito – sono stati messi in vendita degli exploit per una vulnerabilità di tipo 0day che ...
Il CERT-AgID recentemente aveva avvertito che molte istanze pubbliche non sono ancora state aggiornate e tra queste 70 sono relative a banche, assicurazioni e pubbliche amministrazioni italiane. Ora l...
Shellter Project, produttore di un downloader commerciale per bypassare i sistemi antivirus ed EDR, ha segnalato che gli hacker stanno utilizzando il suo prodotto Shellter Elite per gli attacchi. Ques...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006