Pietro Melillo : 2 Agosto 2023 15:42
Lo sviluppatore di chatbot FraudGPT sta sviluppando attivamente strumenti avanzati che utilizzano modelli di intelligenza artificiale generativa, simili alla tecnologia chatbot di Google Bard e OpenAI.
Si tratta di un Large Language Model (LLM), che utilizza tutti i dati prelevati dal dark web come base di conoscenza. Lo riferisce l’azienda SlashNext, riferendosi ai messaggi dell’autore di FraudGPT.
Un hacker etico che in precedenza aveva scoperto un altro strumento di intelligenza artificiale (AI), WormGPT, ha avvisato i ricercatori che lo sviluppatore di FraudGPT – noto anche nei forum underground come “CanadianKingpin12“ – sta lavorando a nuovi chatbot capaci di generare truffe online.
Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011
per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I prossimi bot DarkBART e DarkBERT, avranno funzionalità simili a ChatGPT, e consentiranno agli hacker di sviluppare sofisticate campagne di phishing, rilevare e sfruttare le vulnerabilità, verificare la presenza di punti deboli nelle infrastrutture critiche e creare e distribuire malware.
DarkBART è la “versione oscura” di Google BART. La base di DarkBART sarà il modello DarkBERT LLM, sviluppato da scienziati della Corea del Sud per combattere il crimine informatico. Lo sviluppatore ha anche annunciato la possibilità di integrare il nuovo strumento con Google Lens. Ciò ti consentirà di inviare testo con immagini, il che apre nuove prospettive, poiché fino a d oggi gli strumenti AI sono basati su testo.
DarkBERT utilizzerà tutte le informazioni della rete oscura come dati di addestramento, offrendo agli aggressori l’accesso ad informazioni underground sulle minacce informatiche.
La protezione dalle minacce richiederà un’azione attiva. Oltre alla consueta formazione dei dipendenti aziendali sul riconoscimento degli attacchi di phishing, le organizzazioni dovrebbero fornire una formazione specializzata volta a sensibilizzare i dipendenti sulla natura degli attacchi e sul ruolo dell’intelligenza artificiale.
Inoltre, le misure di verifica delle e-mail per combattere le minacce basate sull’intelligenza artificiale devono essere rafforzate aggiungendo procedure rigorose e meccanismi di tracciamento delle parole chiave alle misure esistenti.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009