Il Dipartimento di Giustizia degli Stati Uniti ha avviato due procedimenti penali contro gli autori di immagini pornografiche infantili generate tramite tecnologia deepfake. L’agenzia ha annunciato un ampliamento della responsabilità per produttori e distributori di tali contenuti.
James Silver, capo della divisione Cybercrime e violazione della proprietà intellettuale del Dipartimento, ha dichiarato a Reuters che i procedimenti non si limiteranno ai due casi attuali. Silver ha espresso profonda preoccupazione per la crescente normalizzazione dell’uso dell’intelligenza artificiale generativa nella creazione di contenuti pornografici, inclusi quelli che coinvolgono minori, e ha sottolineato l’intento di combattere questo fenomeno.
Tuttavia, il primo caso non ha alleviato le preoccupazioni della comunità giuridica riguardo alla possibilità che le condanne possano essere impugnate.
Inoltre, i tribunali non sono ancora pronti a esaminare casi in cui gli imputati utilizzano intelligenza artificiale. In almeno due situazioni, i distributori di tali immagini hanno evitato responsabilità legali o hanno ricevuto accuse significativamente più leggere, sostenendo che le immagini non rappresentassero persone specifiche.
Le forze dell’ordine e le organizzazioni per la protezione dei diritti dei bambini temono che la diffusione di materiali generati dall’intelligenza artificiale possa fungere da maschera per reati di violenza contro minori reali. Il Centro Nazionale per i Bambini Scomparsi e Sfruttati ha registrato una media di circa 450 segnalazioni relative a immagini generate dall’IA coinvolgenti bambini, mentre il numero totale di richieste ricevute supera i 3 milioni, come riportato dal consulente legale Iyota Souras.
Rebecca Portnoff, vicepresidente dell’organizzazione per i diritti umani Thorn, ha avvertito che il problema non può essere considerato esclusivamente come una questione futura, altrimenti rischia di sfuggire al controllo. È fondamentale intervenire su più fronti, influenzando sia gli sviluppatori di sistemi di generazione di immagini sia il sistema delle forze dell’ordine per affrontare questa crescente minaccia.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…