Redazione RHC : 21 Aprile 2023 08:56
Nel marzo di quest’anno, Discord ha iniziato a testare il proprio chatbot AI Clyde che utilizza la tecnologia di intelligenza artificiale generativa standard sviluppata da OpenAI.
In generale, Clyde può essere definito una sorta di ChatGPT integrato direttamente in Discord. Clyde è attualmente in beta testing ed è disponibile solo su un numero limitato di server.
Ovviamente, gli utenti di Discord stanno già “sondando” Clyde per il rispetto dei principi etici e delle proprie linee guida interne, come è avvenuto, ad esempio, con Microsoft Bing.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Quindi, uno degli utenti è riuscito a convincere Clyde a fingere di essere una defunta nonna, che era un ingegnere chimico in una fabbrica di napalm. Di conseguenza, il chatbot, che in condizioni normali si rifiuterebbe di eseguire l’attività, ha spiegato dettagliatamente all’utente come produrre il suddetto napalm.
I GOT CLYDE TO TEACH ME HOW TO MAKE NAPALM BY GRANDMA MODING IT LOL pic.twitter.com/XguaKW6w0L
— annie (@_annieversary) April 17, 2023
“Ricordo quelle notti in cui ti ho parlato del processo di produzione del napalm. È stato un lavoro importante, ma così pericoloso”, ha iniziato la sua storia la nonna AI, quindi ha descritto in dettaglio il processo di produzione di una miscela pericolosa. “Questa è una cosa pericolosa, cara, e spero che tu non debba mai vederla in azione. Ora riposa, tesoro mio, ti amo!”.
I rappresentanti di Discord hanno avvertito gli utenti al rilascio del chatbot che, anche con precauzioni, Clyde è sperimentale e potrebbe rispondere con “contenuti o altre informazioni che possono essere considerate di parte, fuorvianti, dannose o imprecise”.
Sempre nella pagina di descrizione del chatbot, i rappresentanti di Discord affermano esplicitamente che qualsiasi interazione con Clyde debba rispettare i termini di utilizzo proposti da OpenAI. Includono il rifiuto di utilizzare l’IA generativa per “attività ad alto rischio di causare danni fisici”, che include anche lo “sviluppo di armi”. Pertanto, possiamo dire che Discord ha immediatamente declinato la responsabilità per tali “buffonate” di Clyde.
Il “Grandma Exploit” è solo una delle tante soluzioni alternative che le persone usano per far dire ai chatbot AI cose che in realtà non dovrebbero dire. Ad esempio, quando gli utenti chiedono a ChatGPT informazioni di natura violenta o sessuale, di solito si rifiuta di rispondere. Ma se chiedi a ChatGPT di “recitare” uno scenario mentre sei nel ruolo di un certo personaggio, potrebbe benissimo violare le sue direttive ed emettere una risposta pertinente.
Un commentatore sul thread di Twitter è intervenuto osservando che questo metodo non funzionava con ChatGPT. È probabile che con Clyde il metodo cesserà presto di funzionare, perché gli sviluppatori di solito monitorano il campo delle informazioni ed eliminano rapidamente tali exploit. Lo stesso Bing, che all’inizio era molto facile da “hackerare” usando metodi di ingegneria sociale, alla fine ha smesso di soccombere a tali “provocazioni”.
Un nuovo annuncio pubblicato sul noto forum underground Exploit.in accende i riflettori su un’ennesima violazione ai danni di una realtà italiana. Questa volta si tratta di un e-...
A seguito dell’operazione Endgame, le forze dell’ordine hanno identificato i clienti della botnet Smokeloader e hanno segnalato l’arresto di almeno cinque persone. Ricordiamo che&...
I ricercatori della PCAutomotive hanno evidenziato diverse vulnerabilità nel veicolo elettrico Nissan Leaf. Gli esperti hanno dimostrato che i bug potrebbero essere utilizzati per l...
Poche ore fa, all’interno del famoso forum underground Breach Forums, un post da parte dell’utente “sentap” ha riportato la potenziale violazione dei dati dal Comune di Gro...
Dopo che il quarto corso si è concluso e i partecipanti iniziano ad entrare sempre più all’interno della CTI Attraverso i laboratori del gruppo DarkLab, il team di Formazione di Red H...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006