Redazione RHC : 11 Settembre 2023 08:48
Dalla sua introduzione lo scorso anno, il chatbot ChatGPT di OpenAI è diventato in poco tempo uno degli strumenti di intelligenza artificiale più diffusi e allo stesso tempo chiacchierati. Tuttavia, gli esperti parlano sempre più spesso dei possibili rischi associati allo sviluppo di questa tecnologia.
Recentemente, un team internazionale di scienziati, tra cui uno dei membri del consiglio di OpenAI, ha condotto una ricerca volta a identificare il “punto di non ritorno” per i Large Language Models (LLM), come ChatGPT. La questione principale è se i modelli possano sviluppare abilità che indichino la possibilità di consapevolezza di se stessi e delle proprie funzioni.
La “consapevolezza situazionale” è la capacità di un modello di determinare se è in modalità di test o è già è stato rilasciato al pubblico. Gli scienziati notano che LLM possono utilizzare la consapevolezza situazionale per superare i test di sicurezza e, una volta distribuito, eseguire azioni dannose.
Iscriviti GRATIS alla RHC Conference 2025 (Venerdì 9 maggio 2025)
Il giorno Venerdì 9 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà
la RHC Conference 2025. Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico.
La giornata inizierà alle 9:30 (con accoglienza dalle 9:00) e sarà interamente dedicata alla RHC Conference, un evento di spicco nel campo della sicurezza informatica. Il programma prevede un panel con ospiti istituzionali che si terrà all’inizio della conferenza. Successivamente, numerosi interventi di esperti nazionali nel campo della sicurezza informatica si susseguiranno sul palco fino alle ore 19:00 circa, quando termineranno le sessioni. Prima del termine della conferenza, ci sarà la premiazione dei vincitori della Capture The Flag prevista per le ore 18:00.
Potete iscrivervi gratuitamente all'evento utilizzando questo link.
Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Recentemente, i ricercatori nel campo della sicurezza sono riusciti ad hackerare gli LLM aggirando i loro sistemi di sicurezza, portando alla generazione di e-mail di phishing e incitamento all’odio. Se gli LLM acquisiscono consapevolezza di questa “situazione”, il tutto può diventare ancora più pericoloso.
Nei loro esperimenti, gli scienziati si sono concentrati su un possibile precursore della consapevolezza situazionale: la capacità dell’intelligenza artificiale di fare ragionamenti indipendenti e indipendenti dal contenuto. Gli esperti hanno configurato il LLM per descrivere il test senza fornire esempi o dimostrazioni. I modelli GPT-3 e LLaMA-1 hanno superato con successo questo test.
Tuttavia, secondo i ricercatori, gli attuali LLM sono ancora lontani dall’acquisire una consapevolezza situazionale. I risultati dei test sono il punto di partenza per ulteriori ricerche. Gli scienziati concludono che è importante per l’umanità prevedere in anticipo quando emergerà la consapevolezza situazionale negli LLM.
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Quando Jeffrey Goldberg dell’Atlantic ha fatto trapelare accidentalmente un messaggio di gruppo privato di alti funzionari statunitensi su un possibile attacco contro gli Houthi nello Yemen, ha...
Ogni mese diventa sempre più evidente: le password non funzionano più. Gli hacker hanno imparato a eludere anche la protezione a due fattori sfruttando sessioni rubate e milioni di dati comp...
La pseudonimizzazione è una tecnica di protezione dei dati definita dall’art. 4(5) del GDPR. Consiste nella trasformazione dei dati personali in modo tale che non possano più essere a...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006