Secondo la società di gestione delle vulnerabilità e dei rischi Vulcan Cyber, gli aggressori possono manipolare ChatGPT per distribuire pacchetti dannosi agli sviluppatori di software.
Il problema è legato alle allucinazioni dell’IA che si verificano quando ChatGPT genera informazioni di fatto errate o prive di senso che possono sembrare plausibili.
I ricercatori di Vulcan hanno notato che ChatGPT, probabilmente a causa dell’uso di dati di addestramento obsoleti, raccomandava librerie di codici che attualmente non esistono.
I ricercatori hanno avvertito che i criminali informatici potrebbero raccogliere i nomi di tali pacchetti inesistenti e creare versioni dannose che gli sviluppatori potrebbero scaricare in base alle raccomandazioni di ChatGPT.
In particolare, i ricercatori di Vulcan hanno analizzato domande popolari sulla piattaforma Stack Overflow e le hanno poste a ChatGPT nel contesto di Python e Node.js.

Schema di attacco
Gli esperti hanno posto a ChatGPT oltre 400 domande e circa 100 delle sue risposte contenevano collegamenti ad almeno un pacchetto Python o Node.js che in realtà non esisteva. In totale, nelle risposte di ChatGPT sono stati citati più di 150 pacchetti inesistenti.
Conoscendo i nomi dei pacchetti consigliati da ChatGPT, un utente malintenzionato può crearne copie dannose. Poiché è probabile che l’intelligenza artificiale consigli gli stessi pacchetti ad altri sviluppatori che pongono domande simili, gli sviluppatori ignari possono trovare e installare una versione dannosa di un pacchetto caricato da un utente malintenzionato in repository popolari.
Vulcan Cyber ha dimostrato come questo metodo possa funzionare in un ambiente reale creando un pacchetto in grado di rubare informazioni di sistema da un dispositivo e caricarlo nel registro NPM .
Dato il modo in cui gli hacker attaccano la catena di approvvigionamento distribuendo pacchetti dannosi in repository noti, è importante che gli sviluppatori controllino le librerie che utilizzano per assicurarsi che siano sicure.
Le misure di sicurezza sono ancora più importanti con l’avvento di ChatGPT, che può consigliare pacchetti che in realtà non esistono o che non esistevano prima che gli aggressori li creassero.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…