fbpx
Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca
Red Hot Cyber Academy

Digital Services Act: La Nuova Regolamentazione Europea sulla Moderazione dei Contenuti Online

Aniello Giugliano : 21 Febbraio 2025 08:08

Il Digital Services Act (DSA) è una delle normative più ambiziose mai adottate dall’Unione Europea per regolamentare le piattaforme digitali. Il suo obiettivo principale è garantire un ambiente online più sicuro e trasparente, bilanciando la libertà di espressione con la responsabilità delle piattaforme e la protezione degli utenti. Questo regolamento introduce nuovi obblighi per le aziende digitali, ridefinendo il modo in cui i contenuti vengono moderati e gestiti.

Cos’è il Digital Services Act?

Approvato nel 2022 ed entrato in vigore il 17 febbraio 2024, il provvedimento stabilisce regole chiare per le piattaforme online, obbligandole a contrastare la disinformazione, migliorare la trasparenza degli algoritmi e rendere più efficace la moderazione dei contenuti.

Si applica a tutti i servizi digitali, ma introduce requisiti più stringenti per le Very Large Online Platforms (VLOPs) e i Very Large Online Search Engines (VLOSEs), come Google, Facebook, Amazon e TikTok.

Prova la Demo di Business Log! L'Adaptive SOC italiano

Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.

Scarica ora la Demo di Business Log per 30gg

Promo Corso CTI

Un principio fondamentale della normativa europea è che ciò che è illegale offline deve esserlo anche online, con l’obbligo per le piattaforme di intervenire per rimuovere i contenuti illeciti e proteggere gli utenti.

Obblighi di Rimozione dei Contenuti Illegali

Uno degli aspetti chiave di questa legge riguarda la gestione dei contenuti illeciti. Le piattaforme devono:

  • Implementare sistemi di segnalazione chiari e trasparenti per la rimozione tempestiva dei materiali non conformi.
  • Collaborare con Trusted Flaggers, enti certificati con competenze specifiche nella segnalazione di attività illecite.
  • Garantire agli utenti strumenti di ricorso per contestare eventuali rimozioni ingiustificate.

Contenuti Illegali e Trusted Flaggers

Il regolamento non introduce una lista specifica di contenuti vietati, ma fa riferimento alle normative nazionali ed europee già in vigore. Tra le categorie interessate rientrano:

  • Violazioni del copyright;
  • Discorso d’odio e incitamento alla violenza;
  • Materiale pedopornografico;
  • Contenuti terroristici;
  • Vendita di prodotti e servizi illegali.

Per migliorare l’efficacia delle segnalazioni, la normativa introduce la figura dei Trusted Flaggers. Questi enti devono dimostrare competenze specifiche nel rilevamento di contenuti illeciti, essere indipendenti dalle piattaforme e operare in modo obiettivo. I Coordinatori dei Servizi Digitali degli Stati membri certificheranno e monitoreranno le attività di questi segnalatori.

Trasparenza sugli Algoritmi

La nuova regolamentazione europea impone obblighi di trasparenza per le piattaforme, imponendo loro di spiegare chiaramente come funzionano gli algoritmi di raccomandazione e offrendo agli utenti alternative per personalizzare i contenuti visualizzati. In particolare:

  • Le piattaforme devono chiarire perché certi contenuti vengono mostrati nei feed.
  • Gli utenti devono poter disattivare la personalizzazione algoritmica.
  • Verranno pubblicati report periodici per valutare l’impatto degli algoritmi sulla diffusione delle informazioni.

Sanzioni per le Piattaforme Non Conformi

Le aziende che non rispettano il regolamento rischiano sanzioni fino al 6% del loro fatturato annuo globale, come previsto dall’articolo 52 del DSA.. La Commissione Europea ha il potere di condurre indagini, richiedere report dettagliati e imporre misure correttive in caso di violazioni.

Per evitare una moderazione eccessiva dei contenuti, la normativa introduce:

  • Un sistema di ricorso per gli utenti, che potranno contestare la rimozione dei propri contenuti.
  • Organi indipendenti di supervisione, per garantire imparzialità nelle decisioni di moderazione.
  • Regole più chiare per le piattaforme, evitando decisioni arbitrarie.

Quali Servizi Digitali Sono Coperti?

La regolamentazione europea si applica a una vasta gamma di servizi digitali, tra cui:

  • Fornitori di accesso a Internet e infrastrutture di rete (VPN, VoIP, registrar di domini);
  • Servizi di hosting, come cloud storage (Dropbox, AWS) e web hosting;
  • Piattaforme online, tra cui social network, app store, marketplace digitali e servizi di condivisione di contenuti (Facebook, YouTube, TikTok, Google Play, Apple App Store);
  • Motori di ricerca, soggetti a obblighi specifici se rientrano tra i Very Large Online Search Engines (VLOSEs).

Meccanismi di Ricorso per gli Utenti

Gli utenti che ritengono ingiusta una decisione di moderazione possono contestarla attraverso diversi canali:

  • Reclamo interno: Le piattaforme devono offrire un sistema gratuito e facilmente accessibile per contestare la rimozione di contenuti, valido per almeno sei mesi.
  • Organismi indipendenti di risoluzione delle controversie: Se il reclamo interno non porta a una soluzione soddisfacente, gli utenti possono rivolgersi a enti certificati dallo Stato membro di riferimento.
  • Ricorso ai tribunali nazionali: È sempre possibile portare la questione in tribunale, senza dover prima passare attraverso i meccanismi di reclamo interno.

Le piattaforme sono obbligate a garantire che i reclami vengano gestiti in modo tempestivo, equo e trasparente, evitando decisioni arbitrarie.

Chi Vigila sul Rispetto della Normativa?

La supervisione è affidata alla Commissione Europea e agli Stati membri:

  • La Commissione Europea controlla le piattaforme più grandi (VLOPs e VLOSEs) e gestisce le violazioni più gravi.
  • Gli Stati membri devono designare un Coordinatore dei Servizi Digitali (Digital Services Coordinator) per monitorare le piattaforme nel proprio territorio.
  • Le aziende digitali devono sottoporsi a revisioni indipendenti per garantire la conformità al regolamento.

Conclusione: Un Nuovo Equilibrio tra Sicurezza e Libertà

Questa regolamentazione rappresenta una svolta nella gestione di Internet da parte dell’Unione Europea. L’obiettivo è rendere il web più sicuro, senza limitare eccessivamente la libertà di espressione. Tuttavia, resta da vedere come le piattaforme applicheranno queste nuove regole nella pratica. Il Digital Services Act potrebbe diventare un modello globale, ispirando anche paesi extra-UE come il Regno Unito e gli Stati Uniti, che stanno valutando normative simili per regolamentare le piattaforme digitali. influenzando anche le politiche di altri paesi sulla gestione dei contenuti online.

Aniello Giugliano
Esperto di cybersecurity con 4 anni di esperienza in Vulnerability Assessment, Penetration Testing, Risk Management e Audit di sicurezza. Specializzato in compliance (ISO 27001, GDPR, NIS2) e governance IT. Appassionato di cybersecurity strategy, privacy e data protection
Visita il sito web dell'autore

Articoli in evidenza

Anonymous Italia risponde agli attacchi di NoName057(16). Deface contro siti russi!

Negli ultimi giorni, il collettivo hacktivista italiano Anonymous Italia ha risposto agli attacchi informatici sferrati dal gruppo filorusso NoName057(16) colpendo una serie di obiettivi russi. Gli at...

Windows sotto scacco: scoperta una vulnerabilità che bypassa tutte le attivazioni!

Gruppo di ricerca MASSGRAVE ha presentato un Exploit chiamato TSforge che consente di attivare qualsiasi versione di Windows a partire da Windows 7, nonché tutte le edizioni di Microsof...

220$ per entrare nella Polizia di Stato Italiana: l’inquietante offerta di EDRVendor

Su BreachForum un utente dallo pseudonimo EDRVendor ha venduto, dopo poche ore dall’annuncio, l’accesso ad una cassetta postale della polizia di stato italiana. Oltre alla mail viene off...

Google Scopre Triplestrength: il gruppo Ransomware che colpisce il Cloud per estrarre Criptovalute

Team di intelligence sulle minacce di Google ha reso pubblica l’informazione sul gruppo di hacker Triplestrength, finora sconosciuto, attivo dal 2020. Il gruppo è composto da poc...

NoName057(16) Cancellato da Telegram! Ma subito il “Reborn” Con Attacchi DDoS All’Italia!

I canali Telegram degli hacker filorussi di NoName057(16) sono stati eliminati da telegram. Ma subito gli attivisti ricreano nuovi canali marchiati con il suffisso “reborn“. Ma...