Stefano Gazzella : 12 Ottobre 2024 10:04
L’edizione 2024 del Digital Security Festival è alle porte: dal 18 ottobre al 8 novembre il tour toccherà 5 province nel Nordest, rinnovando i propositi dell’edizione dello scorso anno per la promozione di una cultura di sicurezza informatica e digitale coinvolgendo esperti di settore e partner fra cui anche Red Hot Cyber. Questa edizione seguirà il fil rouge “Umanocentrico per natura”, volendo riportare – o meglio: ricordare – l’essere umano al centro dell’innovazione tecnologia.
Il Direttivo che ha proposto e organizzato l’evento ci ha offerto la possibilità di un’intervista offrendoci alcune anticipazioni.
Edizione 2024 DSF: il tema dovrebbe essere l’AI al centro, ma parlate di design umanocentrico. La contraddizione apparente è voluta come provocazione, o cosa?
Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Marco Cozzi, Presidente del Digital Security Festival. Il tema dell’edizione 2024 del Digital Security Festival, giunta alla sua sesta edizione, non è una contraddizione ma una riflessione mirata sul rapporto tra intelligenza artificiale e umanità. L’ispirazione parte dalla prima legge della robotica di Isaac Asimov: «Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno»; l’evoluzione tecnologica deve essere guidata dall’essere umano, per il bene dell’umanità. La tecnologia è al servizio della persona, non il contrario. Questo principio si riflette anche nel “design umanocentrico,” che pone l’individuo al centro dell’innovazione.
Richiamando le parole di Adriano Olivetti, che nella sua visione vedeva la fabbrica come strumento per dare più tempo alle persone di arricchirsi attraverso la bellezza, l’arte e la cultura, possiamo oggi trasporre questo concetto alla tecnologia: l’AI deve potenziare le capacità umane e permettere agli individui di vivere pienamente, valorizzando l’esperienza umana. La provocazione è chiara: la tecnologia deve amplificare l’essere umano, non sostituirlo.
Parliamo di un tema a me molto caro: nativi digitali. Qual è il corretto approccio della Gen Z al tema della sicurezza?
Gabriele Gobbo. Secondo me non sono del tutto “nativi digitali” ma piuttosto “inconsapevoli del digitale”, perdonami il giro di parole. I ragazzi di oggi navigano sul web e usano gli smartphone con agilità, ma sotto la superficie manca qualcosa di fondamentale: la consapevolezza. Sanno come fare swipe, scattare foto e postare sui social, ma spesso ignorano le implicazioni etiche, legali e sociali di ciò che stanno facendo. È qui che nasce il problema: crediamo che la Gen Z abbia un rapporto privilegiato col digitale, ma la realtà è che molti di loro non comprendono davvero i rischi nascosti in un click.
La vera domanda che possiamo porci è: come possono i giovani proteggersi online se non hanno mai avuto gli strumenti per capire cosa significa essere davvero al sicuro? La risposta è semplice e scomoda: serve un’educazione digitale seria, che non si limiti a insegnare a usare i dispositivi, ma che si concentri sui valori e le responsabilità che accompagnano ogni azione online. E qui entra in gioco il ruolo degli adulti. Troppo spesso i genitori si limitano a sorvegliare da lontano, ma questo non basta. Dovrebbero invece accompagnare, guidare e trasmettere ai loro figli non solo la tecnica, ma anche l’etica del digitale.
Ogni volta che parlo al Digital Security Festival, vedo ragazzi che, una volta resi consapevoli, mostrano una curiosità insaziabile per capire come le loro azioni online possano avere conseguenze concrete, a volte anche legali. Questo mi dà speranza. La Gen Z ha bisogno di sapere che essere utenti responsabili non è un’opzione, ma una necessità. Solo allora saranno veramente pronti a navigare in un mondo dove il digitale è una realtà quotidiana, non una zona franca priva di regole.
E invece qual è il corretto design delle tecnologie che sappia tenere conto delle istanze della Gen Z?
Luigi Gregori. Il design delle tecnologie per la Generazione Z richiede una profonda comprensione di come questa generazione percepisca e interagisca con il mondo digitale. La Gen Z vede la tecnologia non come uno strumento esterno, ma come un’estensione naturale delle proprie capacità, una parte integrante e inseparabile della loro vita quotidiana. Questo cambia radicalmente l’approccio al design tecnologico.
L’esperienza utente diventa cruciale in questo contesto. Le interfacce devono essere non solo funzionali, ma anche intuitive e visivamente accattivanti. Stiamo parlando di creare vere e proprie “protesi digitali” che si fondono con la percezione del sé della Gen Z. Lo smartphone, ad esempio, non è più visto principalmente come un telefono, ma come un portale multidimensionale verso il cyberspazio, dove le tradizionali funzioni di chiamata sono state largamente sostituite da chat, messaggi vocali, videochiamate e, soprattutto, dalla presenza sui social media.
Il concetto stesso di “social” sta evolvendo per la Gen Z. Non si tratta più di piattaforme separate, ma di un continuum digitale in cui si svolge una parte significativa, se non predominante, delle loro vite. Questo spazio digitale è accessibile non solo tramite smartphone, ma attraverso una miriade di dispositivi wearable che creano un ecosistema in cui le loro vite sono costantemente analizzate, scrutate e indirizzate.
È qui che entra in gioco il concetto di “corretto” design. Non si tratta solo di soddisfare i desideri degli utenti o di creare interfacce accattivanti. Il vero design etico deve considerare la responsabilità nell’uso dei dati raccolti. La privacy e la sicurezza sono preoccupazioni cruciali, anche se la Gen Z potrebbe non essere sempre adeguatamente formata su questi temi.
La sfida principale che stiamo affrontando, specialmente con l’avvento dell’intelligenza artificiale, è quella di bilanciare l’innovazione con la responsabilità etica. Dobbiamo chiederci: siamo disposti a sacrificare una parte dei potenziali guadagni per evitare di costruire tecnologie che potrebbero danneggiarci in un futuro non troppo lontano?
Il design corretto deve anche incorporare la sostenibilità come elemento fondamentale. La Gen Z è particolarmente sensibile alle questioni ambientali, e questo deve riflettersi nella progettazione delle tecnologie, sia in termini di impatto ambientale diretto che di promozione di comportamenti sostenibili.
L’interoperabilità e la personalizzazione sono altre caratteristiche chiave. La Gen Z si aspetta che le diverse piattaforme e dispositivi funzionino in armonia, creando un’esperienza fluida e adattabile alle proprie esigenze individuali.
Infine, non possiamo trascurare l’importanza dell’apprendimento continuo. Le tecnologie devono essere progettate non solo per essere utilizzate, ma per favorire la crescita e lo sviluppo personale degli utenti, in linea con i valori di una generazione che valorizza fortemente l’educazione e l’auto-miglioramento.
In conclusione, il corretto design delle tecnologie per la Gen Z richiede un approccio olistico e lungimirante. Dobbiamo creare soluzioni che non solo soddisfino le esigenze immediate, ma che contribuiscano anche a plasmare un futuro digitale etico, sostenibile e in armonia con i valori di questa generazione emergente.
Non lasciamo indietro nessuno, però. Una tecnologia dev’essere accessibile anche a generazioni meno digitali. Pensate possa essere possibile con l’AI?
Luigi Gregori. L’intelligenza artificiale (IA) sta rapidamente trasformando il panorama tecnologico, ponendo delle sfide significative in termini di accessibilità e inclusione. La domanda se l’IA possa rendere la tecnologia più accessibile alle generazioni meno digitali è complessa e merita un’analisi approfondita.
Da un lato, l’IA ha il potenziale per democratizzare l’accesso alla tecnologia attraverso interfacce più intuitive e naturali. Gli assistenti virtuali basati sull’IA, ad esempio, possono semplificare notevolmente l’interazione con dispositivi e servizi digitali, rendendo la tecnologia più approcciabile per chi ha meno dimestichezza con il digitale. La capacità dell’IA di personalizzare e adattare l’esperienza utente in base alle esigenze individuali può ridurre le barriere all’ingresso, offrendo un supporto su misura per gli utenti meno esperti.
Inoltre, l’IA può giocare un ruolo cruciale nel migliorare l’accessibilità per utenti con disabilità o limitazioni legate all’età, attraverso tecnologie come il riconoscimento vocale avanzato o l’assistenza visiva intelligente. Questo aspetto è particolarmente rilevante considerando l’invecchiamento della popolazione in molti paesi.
Ci sono preoccupazioni che avete rilevato sul tema dell’introduzione dell’AI?
L’introduzione dell’IA solleva preoccupazioni significative. Il divario di competenze digitali rischia di ampliarsi ulteriormente con l’avvento di tecnologie sempre più sofisticate, potenzialmente portando a una maggiore esclusione sociale e professionale per le generazioni meno digitali. La dipendenza tecnologica e la potenziale perdita di autonomia sono rischi concreti che non possono essere sottovalutati.
Un altro aspetto critico riguarda la vulnerabilità alle fake news e alla disinformazione, che può aumentare per chi non ha gli strumenti per navigare criticamente nel mare di informazioni generate o amplificate dall’IA. Lo stress tecnologico e l’ansia legati alla rapida evoluzione dell’IA sono fattori da considerare attentamente nel processo di adozione di queste tecnologie.
Come è possibile superarle?
Per affrontare queste sfide, è essenziale adottare un approccio olistico e inclusivo nello sviluppo e nell’implementazione dell’IA. Ciò implica non solo il design di interfacce user-friendly, ma anche la creazione di programmi educativi mirati e supporto continuo per le generazioni meno digitali. I programmi di mentoring inverso, dove le generazioni più giovani condividono le loro competenze digitali con quelle più anziane, possono essere strumenti preziosi per colmare il divario intergenerazionale.
La trasformazione del mercato del lavoro indotta dall’IA richiede inoltre un ripensamento dei sistemi educativi e di formazione professionale, per garantire che nessuno venga lasciato indietro. Parallelamente, è cruciale un ripensamento dei servizi pubblici per assicurare che rimangano accessibili a tutti i cittadini, indipendentemente dalle loro competenze digitali.
L’IA offre potenzialità straordinarie per rendere la tecnologia più accessibile ma è fondamentale adottare un approccio equilibrato e consapevole. La visione di lungo periodo deve mirare a sfruttare i benefici dell’IA per colmare i divari esistenti, piuttosto che ampliarli. Solo attraverso un impegno collettivo verso l’inclusività digitale e una governance responsabile dell’IA potremo assicurare che questa potente tecnologia diventi veramente uno strumento di progresso per tutte le generazioni.
Cosa vi aspettate da questa edizione?
Gabriele Gobbo. Non possiamo più permetterci di essere inconsapevoli in un mondo dove ogni gesto online può avere conseguenze reali. Quest’anno ci aspettiamo che chiunque partecipi, dai genitori ai ragazzi, esca con gli strumenti pratici per difendersi e con la mentalità giusta per utilizzare la tecnologia senza esserne sopraffatto. Il nostro obiettivo è mostrare a tutti come la sicurezza digitale non sia una scelta ma una necessità, un po’ come indossare una cintura di sicurezza quando si guida: naturale e indispensabile. Attraverso un approccio ‘umanocentrico’, puntiamo a mettere la persona al centro, aiutandola a navigare il digitale in modo sicuro, consapevole e intelligente. Siamo qui per rendere la sicurezza informatica accessibile e, soprattutto un altro aspetto cruciale è l’educazione.
Ci aspettiamo che questa edizione del Digital Security Festival rappresenti non solo un’occasione di sensibilizzazione, ma anche di vera e propria formazione. Vogliamo fornire ai partecipanti, in particolare ai più giovani, strumenti concreti per riconoscere e gestire i rischi online, migliorando le loro competenze digitali in un mondo che evolve rapidamente. La collaborazione tra generazioni sarà fondamentale, e ci aspettiamo che anche genitori e insegnanti escano dall’evento con una maggiore consapevolezza del loro ruolo nell’educazione digitale.
Marco Cozzi. L’innovazione sarà un punto chiave. Ci aspettiamo che le discussioni sull’intelligenza artificiale e sul design umanocentrico portino a riflessioni su come queste tecnologie possano essere utilizzate in modo etico e sostenibile. Ci aspettiamo che i partecipanti lascino il festival con una visione chiara su come l’AI possa essere una forza per il bene, non solo per la sicurezza, ma anche per migliorare la qualità della vita e la sostenibilità del nostro futuro digitale.
Ci aspettiamo e promuoviamo un impegno collettivo. Questa edizione vuole ispirare un senso di responsabilità condivisa verso la sicurezza digitale, non solo individuale, ma sociale. Siamo tutti parte di un ecosistema interconnesso, e la sicurezza di uno diventa la sicurezza di tutti, applicabile nella vita di tutti i giorni.