
Un soldato americano è accusato di utilizzare l’intelligenza artificiale (AI) per creare materiale sessualmente esplicito raffigurante bambini. Seth Herrera, 34 anni, rischia fino a 20 anni di carcere per trasporto, ricezione e possesso di tali materiali.
Secondo i documenti del tribunale, Herrera ha utilizzato chatbot basati sull’intelligenza artificiale per trasformare le fotografie di bambini che conosceva in immagini pornografiche. L’imputato, che prestava servizio presso la base congiunta Elmendorf-Richardson ad Anchorage, è stato trovato in possesso di decine di migliaia di immagini di abusi sessuali su bambini.
“L’uso improprio dell’intelligenza artificiale generativa all’avanguardia sta accelerando la proliferazione di contenuti pericolosi, tra cui materiale di abusi sessuali su minori, quindi il Dipartimento di Giustizia sta accelerando i suoi sforzi di applicazione”, ha affermato il vice procuratore generale Lisa Monaco. “Come affermato, l’imputato ha utilizzato strumenti di intelligenza artificiale per trasformare immagini di bambini veri in orribile materiale di abusi sessuali su minori. I criminali che stanno considerando l’uso dell’intelligenza artificiale per perpetuare i loro crimini dovrebbero fermarsi e pensarci due volte, perché il Dipartimento di Giustizia sta perseguendo condotte criminali basate sull’intelligenza artificiale con la massima estensione della legge e cercherà di aumentare le condanne ovunque sia giustificato”.
L’indagine ha inoltre stabilito che il militare utilizzava servizi di messaggistica istantanea crittografati per cercare, ricevere e scaricare materiale pedopornografico. Il processo di Herrera è previsto per agosto 2024. Se ritenuto colpevole, rischia una pena detentiva minima di 5 anni e massima di 20 anni.
“Come affermato, Seth Herrera possedeva migliaia di immagini raffiguranti abusi sessuali violenti su minori, compresi neonati. Avrebbe anche utilizzato l’intelligenza artificiale per creare immagini raffiguranti lo sfruttamento sessuale di minori che conosceva”, ha affermato il vice procuratore generale aggiunto principale Nicole M. Argentieri, a capo della divisione penale del Dipartimento di Giustizia.
“L’annuncio di oggi dovrebbe servire come un ulteriore avvertimento che la divisione penale perseguirà aggressivamente coloro che possiedono o producono materiale di abusi sessuali su minori, anche quando le immagini sono state generate tramite intelligenza artificiale”.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…