Redazione RHC : 3 Luglio 2024 09:16
Il punto di vista di Umberto Pirovano, Senior Manager Systems Engineering di Palo Alto Networks: come cambia la cybersecurity nel breve, medio e lungo termine
Quando si parla del ruolo dell’Intelligenza Artificiale nella cybersecurity è essenziale considerare innanzitutto gli impatti a breve termine, perché sono quelli più evidenti e poiché si tratta di un territorio inesplorato che richiede la capacità di andare al di là del clamore immediato. Per questo motivo, si ritiene che l’AI svolgerà un ruolo cruciale nelle campagne di disinformazione su vasta scala sulle piattaforme social media. Queste campagne possono verificarsi prima, durante e dopo grandi eventi globali, come conflitti geopolitici ed elezioni, che mettono in dubbio la fiducia nella capacità di verificare i fatti. Sebbene manchino prove concrete, l’intelligence open source suggerisce un trend in crescita dell’utilizzo dell’AI nelle campagne di disinformazione.
Darrell West, senior fellow presso il Center for Technology Innovation della Brookings Institution, ha recentemente lanciato un allarme sul potenziale impatto di questo caso d’uso, affermando che “ci sarà uno tsunami di disinformazione nelle prossime elezioni; in pratica, chiunque può usare l’intelligenza artificiale per creare video e audio falsi, e sarà quasi impossibile distinguere il reale dal fake.”
Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
A questo fa eco la creazione di deepfake. Sebbene non siano direttamente collegati alla sicurezza informatica tradizionale, i deepfake iniziano a essere combinati con attacchi di social engineering. Questa intersezione tra tecnologia e manipolazione è fonte di preoccupazione per i professionisti della sicurezza, soprattutto perché gli algoritmi si affinano sempre più per aggirare le difese tradizionali, incapaci di contrastare gli attacchi più sofisticati.
Nel medio termine, prevediamo che gli attori delle minacce affineranno ulteriormente i loro strumenti con l’AI. Ad esempio, potrebbero istruire modelli di intelligenza artificiale per identificare le risorse di un’azienda esposte a Internet con i rispettivi servizi in esecuzione per aiutare a individuare le vulnerabilità potenzialmente presenti.
Prevediamo un continuo aumento della sofisticazione delle minacce, con l’AI generativa sempre più utilizzata dai cybercriminali per elevare le loro abilità. È importante notare che queste tecnologie, come i modelli linguistici, sono attualmente utilizzate come supporto alle operazioni esistenti, ma non sono ancora state utilizzate appieno per creare malware o condurre campagne pericolose su larga scala.
Tuttavia, con ogni probabilità queste tecnologie verranno utilizzate per migliorare gli attacchi nel prossimo futuro, ad esempio per ottimizzare e perfezionare i testi delle email di spear phishing, che potrebbero diventare più convincenti grazie all’utilizzo di riferimenti geografici corretti, gergo e testo grammaticalmente accurato anche per rivolgersi a persone madrelingua.
Inoltre, possiamo aspettarci l’uso potenziale a breve termine dell’intelligenza artificiale generativa a scopi di ricognizione, per raccogliere informazioni su vittime specifiche, pre-compromissione, come intervalli di netblock, servizi/porte aperti e anche assistenza nella scansione di vulnerabilità.
Guardando al futuro, prevediamo la possibilità di sviluppo da parte degli attori delle minacce di propri co-pilot di sicurezza dotati di intelligenza artificiale. Questi co-pilot potrebbero assistere i cybercriminali in diverse fasi della catena di attacco, come il movimento laterale e l’escalation dei privilegi all’interno di ambienti compromessi. Sebbene questo concetto non sia ancora una realtà pienamente realizzata, nei forum e nei social network underground si registra una crescente attenzione e discussione su come gli attaccanti possano sfruttare la tecnologia AI.
In sintesi, l’AI è destinata a svolgere un ruolo sempre più significativo nel campo della cybersecurity. Con l’evolversi della tecnologia, è probabile che essa modifichi il modo stesso in cui professionisti della sicurezza e personale dei SOC affrontano il loro ruolo. Mentre nel breve termine possiamo aspettarci il suo utilizzo per campagne di disinformazione e deepfake, gli sviluppi a medio termine si concentreranno sull’affinamento degli strumenti lungo tutta la catena di attacco, ad esempio per la ricognizione e lo spear phishing. A lungo termine, infine, potremmo assistere all’emergere di co-pilot di sicurezza dotati di intelligenza artificiale, utilizzati per rendere ancora più efficaci le attività pericolose.
Tutto questo sottolinea la necessità per i professionisti della sicurezza di restare vigili, adattandosi all’evoluzione del panorama delle minacce. Con la continua evoluzione del settore della cybersecurity, è chiaro che l’AI sarà una forza trainante nelle strategie sia difensive che offensive. Alle aziende e ai responsabili della sicurezza spetta il compito di rimanere informati, adattare costantemente le loro difese ed essere pronti a contrastare efficacemente le minacce alimentate dall’AI.