Redazione RHC : 12 Novembre 2024 07:36
Il Dipartimento di Giustizia degli Stati Uniti ha avviato due procedimenti penali contro gli autori di immagini pornografiche infantili generate tramite tecnologia deepfake. L’agenzia ha annunciato un ampliamento della responsabilità per produttori e distributori di tali contenuti.
James Silver, capo della divisione Cybercrime e violazione della proprietà intellettuale del Dipartimento, ha dichiarato a Reuters che i procedimenti non si limiteranno ai due casi attuali. Silver ha espresso profonda preoccupazione per la crescente normalizzazione dell’uso dell’intelligenza artificiale generativa nella creazione di contenuti pornografici, inclusi quelli che coinvolgono minori, e ha sottolineato l’intento di combattere questo fenomeno.
Tuttavia, il primo caso non ha alleviato le preoccupazioni della comunità giuridica riguardo alla possibilità che le condanne possano essere impugnate.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Inoltre, i tribunali non sono ancora pronti a esaminare casi in cui gli imputati utilizzano intelligenza artificiale. In almeno due situazioni, i distributori di tali immagini hanno evitato responsabilità legali o hanno ricevuto accuse significativamente più leggere, sostenendo che le immagini non rappresentassero persone specifiche.
Le forze dell’ordine e le organizzazioni per la protezione dei diritti dei bambini temono che la diffusione di materiali generati dall’intelligenza artificiale possa fungere da maschera per reati di violenza contro minori reali. Il Centro Nazionale per i Bambini Scomparsi e Sfruttati ha registrato una media di circa 450 segnalazioni relative a immagini generate dall’IA coinvolgenti bambini, mentre il numero totale di richieste ricevute supera i 3 milioni, come riportato dal consulente legale Iyota Souras.
Rebecca Portnoff, vicepresidente dell’organizzazione per i diritti umani Thorn, ha avvertito che il problema non può essere considerato esclusivamente come una questione futura, altrimenti rischia di sfuggire al controllo. È fondamentale intervenire su più fronti, influenzando sia gli sviluppatori di sistemi di generazione di immagini sia il sistema delle forze dell’ordine per affrontare questa crescente minaccia.
E’ stata pubblicata da Ivanti una vulnerabilità critica, che interessa i suoi prodotti Connect Secure, Pulse Connect Secure, Ivanti Policy Secure e ZTA Gateway monitorata con il codice CVE...
Di vulnerabilità con CVSS di gravità 10 se ne vedono pochissime (per fortuna), ma questa volta siamo di fronte ad una gravissima falla di sicurezza che minaccia Apache Parquet. Si tratta di ...
I fallimenti fanno parte della nostra vita, quanti di noi ne ha avuti e quanti ne continueremo avere? Oggi parliamo di un codice, un codice semplice snello e schietto, il codice 404. Scopriremo che no...
La notizia è stata anticipata da politico.eu: a partire da maggio 2025, la Commissione von der Leyen revisionerà il GDPR introducendo semplificazioni. Certo, non sarebbe male pubblicare prim...
Oggi i bambini sono un po’ più al sicuro grazie ad una operazione di polizia coordinata da Europol che ha portato alla chiusura di Kidflix. Si tratta di una delle più grandi piattafor...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006