Redazione RHC : 4 Novembre 2023 09:15
Autore: Yaki Faitelson, Co-Founder e CEO di Varonis
L’automazione offre un monitoraggio proattivo, permettendo di difendersi dagli attacchi informatici, mitigare i rischi, ottemperare alla compliance e migliorare la produttività. Il più grande rischio per la sicurezza che le aziende devono affrontare sono i danni permanenti che si verificano quando i dati vengono persi o esfiltrati. Si prevede che la creazione di dati a livello mondiale supererà i 180 zettabyte tra il 2020 e il 2025, a fronte di una carenza globale di 3,4 milioni di addetti alla sicurezza informatica.
Non essendoci abbastanza dipendenti qualificati è fondamentale che l’automazione aiuti ad abbassare il carico di lavoro delle risorse IT. Gli attaccanti sanno che le aziende possono ricostruire l’infrastruttura cloud o sostituire un notebook ma non possono fare un “unbreach” dei dati, ecco perché una volta impossessatisi delle risorse digitali aziendali minacciano di divulgarle o crittografarle in cambio di un riscatto. Gli attaccanti motivati continuano a trovare nuovi modi per penetrare le difese lungo una superficie di attacco che si è ampliata notevolmente dalla pandemia a causa di un aumento del lavoro ibrido, servizi cloud e dispositivi remoti. Alcuni malintenzionati hanno persino imparato a trasformare i dipendenti in minacce interne, le minacce più pericolose in assoluto.
La NIS2 è complessa da capire?
Non perdere tempo, segui l'anteprima gratuita del corso che stiamo preparando.Accedi quindi alla nostra Academy e segui l'anteprima del corso della durata di 30 minuti per comprendere i contenuti esclusivi che tratteremo nel corso.per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Con una superficie di attacco così vasta e fluida, ci sarà sempre almeno un account, un dipendente o un sistema che prima o poi verrà compromesso, una buona postura non basta.
Man mano che i confini della superficie di attacco crescono, i dati si spostano verso database e datastore cloud centralizzati. Questa tendenza probabilmente continuerà perché i datastore cloud centralizzati possono aiutare a garantire che tutti gli utenti, i dispositivi e i servizi siano connessi e disponibili per i team sparsi sul territorio. Senza connessioni persistenti e regolari, una forza lavoro distribuita sarebbe isolata e molto meno produttiva.
Centralizzando i dati si concentra anche la maggior parte del rischio. Se questi data store sono ben controllati, si riducono notevolmente le possibili conseguenze derivanti da ogni singolo utente o dispositivo compromesso. Dobbiamo fare del nostro meglio per mantenere i confini bloccati e monitorare eventuali segnali preoccupanti, ma non ha senso sprecare risorse dove non si concentra la maggior parte del rischio.
Se non si conosce da quale direzione arriverà un attacco, ma si sa dove potrebbe andare e causare danni, è lì che ha senso implementare soluzioni di sicurezza informatica. Molti team di sicurezza informatica hanno iniziato a concentrarsi maggiormente su questi data store centralizzati, guardando all’automazione per gestire al meglio il modo in cui questi data store vengono configurati, utilizzati e controllati.
Occorre partire da domande di base come “I dati importanti sono archiviati dove dovrebbero essere archiviati?” e “Le applicazioni sono configurate correttamente?”. L’automazione può aiutare a rispondere a queste domande, ma le risposte di solito portano a nuove domande e a colli di bottiglia imprevisti. Quando vengono scoperti dati sensibili, ad esempio, si sollevano domande sul fatto se siano protetti correttamente, come vengono utilizzati e per quanto tempo dovrebbero rimanere lì dove sono. Le configurazioni errate devono essere gestite in modo da non compromettere la produttività.
Workflows, progetti e lavori cambiano nel tempo, spesso ciò che è configurato correttamente oggi non lo sarà tra sei mesi. In ambienti altamente collaborativi in cui gli utenti condividono dati senza l’aiuto o la supervisione dell’IT, è ragionevole sospettare che esistano molti errori. Si notano utenti condividere eccessivamente dati sensibili con le persone sbagliate o mantenere l’accesso a questi dati a tempo indeterminato. Come scegliere la giusta automazione per la sicurezza informatica?
Proteggere ciò che conta davvero. È importante concentrarsi su dove si trova il rischio, quindi dove vi è:
Mettere alla prova le impostazioni. Se si sta cercando di ottimizzare le configurazioni o proteggere i dati, occorre valutare la possibilità di testare l’ambiente per avere un’idea migliore di quanti problemi emergeranno inizialmente, quanti problemi verranno introdotti nel tempo e se è possibile automatizzare l’intero risultato – non semplicemente per trovare problemi quindi, ma per risolverli.
Campionare i segnali. Se si sta considerando l’automazione per rilevare e reagire a potenziali minacce, occorre assicurarsi che il personale sia preparato a gestire il volume e il contenuto dei segnali e che si disponga delle risorse per ottimizzarli. È fondamentale limitare i falsi positivi e concentrarsi sull’informazione che conta.
Dare priorità ai controlli a monte. L’automazione che blocca le attività rischiose o dannose a valle, all’Edge è a primo impatto più facile da gestire e soprattutto più efficace quando il flusso di dati è più pulito e privo di falsi positivi. Queste soluzioni però possono compromettere la produttività dell’azienda se basate su monitoraggi e classificazioni obsoleti e imprecisi.
L’automazione dovrebbe alleggerire il carico di lavoro, non appesantirlo. Se si investe tempo e impegno nell’automazione della sicurezza informatica, questa deve fornire risultati e non dovrebbe procurare nuovo lavoro per il quale non si ha abbastanza personale a disposizione. Se servono competenze aggiuntive per implementare l’automazione e agire in base alle informazioni che fornisce, allora gli incrementi di produttività devono giustificare costi di personale aggiuntivi e le sfide legate alla ricerca di personale con competenze specializzate.
Man mano che i dati crescono in volume e valore, diventa sempre più difficile proteggerli. I rinforzi umani non arrivano abbastanza velocemente, l’automazione può impedire a questi enormi archivi di dati di diventare vittime di attacchi informatici.
I dati sensibili esposti sono il rischio di sicurezza più grande. Varonis ha sviluppato una piattaforma che permette di avere visibilità e controllo del dato in ogni ambiente, sia esso on-prem o nel cloud: classifica costantemente i dati, corregge la sovraesposizione del dato in completa autonomia e aiuta a prevenire gli attacchi informatici. Il motore di automazione che sta alla base della piattaforma, Automation Engine, rimuove in maniera sicura gli accessi aperti su tutti i file system aziendali nel giro di pochi giorni, non di anni.
Lavora silenziosamente in background per applicare la zero trust man mano che gli utenti creano e condividono i dati, aiutando quindi a monitorare le azioni degli utenti sui server dove risiedono documenti, progetti e file critici, oltre a monitorare tutti gli ambienti Microsoft 365, da SharePoint a OneDrive. Creando un’unica visione del rischio per i dati aziendali con attribuzione di priorità, con Varonis si possono eliminare proattivamente e sistematicamente i rischi generati sia da minacce interne che da attacchi informatici.
Yaki Faitelson, Co-fondatore e CEO di Varonis, responsabile della guida e della gestione della società.