Pietro Melillo : 2 Agosto 2023 15:42
Lo sviluppatore di chatbot FraudGPT sta sviluppando attivamente strumenti avanzati che utilizzano modelli di intelligenza artificiale generativa, simili alla tecnologia chatbot di Google Bard e OpenAI.
Si tratta di un Large Language Model (LLM), che utilizza tutti i dati prelevati dal dark web come base di conoscenza. Lo riferisce l’azienda SlashNext, riferendosi ai messaggi dell’autore di FraudGPT.
Un hacker etico che in precedenza aveva scoperto un altro strumento di intelligenza artificiale (AI), WormGPT, ha avvisato i ricercatori che lo sviluppatore di FraudGPT – noto anche nei forum underground come “CanadianKingpin12“ – sta lavorando a nuovi chatbot capaci di generare truffe online.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
I prossimi bot DarkBART e DarkBERT, avranno funzionalità simili a ChatGPT, e consentiranno agli hacker di sviluppare sofisticate campagne di phishing, rilevare e sfruttare le vulnerabilità, verificare la presenza di punti deboli nelle infrastrutture critiche e creare e distribuire malware.
DarkBART è la “versione oscura” di Google BART. La base di DarkBART sarà il modello DarkBERT LLM, sviluppato da scienziati della Corea del Sud per combattere il crimine informatico. Lo sviluppatore ha anche annunciato la possibilità di integrare il nuovo strumento con Google Lens. Ciò ti consentirà di inviare testo con immagini, il che apre nuove prospettive, poiché fino a d oggi gli strumenti AI sono basati su testo.
DarkBERT utilizzerà tutte le informazioni della rete oscura come dati di addestramento, offrendo agli aggressori l’accesso ad informazioni underground sulle minacce informatiche.
La protezione dalle minacce richiederà un’azione attiva. Oltre alla consueta formazione dei dipendenti aziendali sul riconoscimento degli attacchi di phishing, le organizzazioni dovrebbero fornire una formazione specializzata volta a sensibilizzare i dipendenti sulla natura degli attacchi e sul ruolo dell’intelligenza artificiale.
Inoltre, le misure di verifica delle e-mail per combattere le minacce basate sull’intelligenza artificiale devono essere rafforzate aggiungendo procedure rigorose e meccanismi di tracciamento delle parole chiave alle misure esistenti.
Redazione: [email protected]
© Copyright RED HOT CYBER. PIVA 16821691009