Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Il lato oscuro delle IA: gli studenti usano le IA per creare immagini oscene dei loro compagni

Redazione RHC : 27 Novembre 2023 16:37

Gli scolari del Regno Unito utilizzano l’intelligenza artificiale (AI) per creare immagini indecenti dei loro coetanei, sollevando allarme tra gli esperti di protezione dell’infanzia e di tecnologia. Gli esperti segnalano un numero crescente di casi di studenti che utilizzano l’intelligenza artificiale per generare immagini legalmente riconosciute come materiale di abuso sessuale infantile (CSAM).

Il Safer Internet Centre del Regno Unito (UKSIC) e la Internet Watch Foundation (IWF) hanno sottolineato che la qualità delle immagini generate è così elevata da essere paragonabili alle fotografie professionali. I funzionari dell’agenzia hanno espresso preoccupazione per il fotorealismo delle immagini, sottolineando che alcune di esse potrebbero essere identificate come raffiguranti vittime di violenza sessuale.

Di particolare preoccupazione è la possibilità che tali immagini vengano distribuite online, rendendole accessibili a estranei e predatori sessuali. L’UKSIC chiede consapevolezza sul potenziale uso improprio della tecnologia di generazione di immagini.

Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)

Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:

  • Creare Un Sistema Ai Di Visual Object Tracking (Hands on)
  • Social Engineering 2.0: Alla Scoperta Delle Minacce DeepFake
  • Doxing Con Langflow: Stiamo Costruendo La Fine Della Privacy?
  • Come Hackerare Un Sito WordPress (Hands on)
  • Il Cyberbullismo Tra Virtuale E Reale
  • Come Entrare Nel Dark Web In Sicurezza (Hands on)

  • Potete iscrivervi gratuitamente all'evento, che è stato creato per poter ispirare i ragazzi verso la sicurezza informatica e la tecnologia.
    Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765


    Supporta RHC attraverso:


    Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

    L’UKSIC, l’autorità di vigilanza sulla protezione dei minori, chiede alle scuole di intensificare urgentemente le misure per bloccare il materiale CSAM. L’UKSIC sottolinea l’importanza di anticipare l’uso dannoso delle nuove tecnologie come i generatori di immagini basati sull’intelligenza artificiale, soprattutto perché i bambini potrebbero non essere consapevoli del danno che possono causare.

    Nel Regno Unito è illegale creare, possedere e distribuire immagini di sfruttamento sessuale minorile, comprese quelle generate dall’intelligenza artificiale. La regola vale anche per le immagini da cartone animato o meno realistiche.

    Il mese scorso la Internet Watch Foundation ha avvertito che le immagini di sfruttamento sessuale minorile generate dall’intelligenza artificiale potrebbero travolgere Internet. Molte immagini sono così realistiche che è difficile anche per gli analisti possano distinguerle dalla realtà. La situazione evidenzia la gravità del problema e la necessità di un’azione immediata per risolverlo.

    In precedenza, la National Crime Agency (NCA) della Gran Bretagna aveva messo in guardia dalla diffusione di immagini CSAM generate. Questa tendenza normalizza la pedofilia e i comportamenti inaccettabili nei confronti dei bambini. L’agenzia stima che circa 830.000 adulti, ovvero l’1,6% della popolazione adulta del Regno Unito, rappresentano un rischio sessuale per i bambini. Questo numero è 10 volte il totale della popolazione che sconta pene nelle carceri del paese.

    Inoltre, gli esperti di protezione dell’infanzia affermano di non poter combattere le migliaia di “immagini di abusi sessuali su minori generate dall’intelligenza artificiale” che vengono create e condivise facilmente e rapidamente sui forum oscuri di pedofilia.

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

    Lista degli articoli

    Articoli in evidenza

    Ma quale Agenda 2030! 9 reattori nucleari per un chatbot è l’altra faccia dell’intelligenza artificiale

    Lo sviluppo di supercomputer per l’intelligenza artificiale sta entrando in una nuova orbita: in termini di scala, costi e consumi energetici e infrastrutture e megaprogetti. Uno studio condott...

    25 Aprile: Dalla Resistenza alla Cyber Resistenza – Difendiamo la Libertà Digitale

    Il 25 Aprile, data simbolo della Liberazione italiana dal fascismo, ci ricorda il valore della libertà, conquistata con il sacrificio di partigiani e combattenti. In un’era dominata dal di...

    Le Action Figure della Cyber Security. Red Hot Cyber lancia la serie “Chiama Ammiocuggino!”

    In un mondo dove ogni giorno si registrano migliaia di attacchi informatici, molte aziende continuano a sottovalutare l’importanza della cybersecurity, affidandosi a “sedicenti esperti&#...

    GPT-4 scrive un exploit prima del PoC pubblico. La corsa alla Patch non è mai stata così essenziale

    AI, AI e ancora AI. E sembra che l’intelligenza artificiale giorno dopo giorno ci porti innovazioni sia come difesa ma soprattutto, come attacco. L’intelligenza artificiale è gi...

    HackerHood di RHC Rivela due nuovi 0day sui prodotti Zyxel

    Il collettivo di ricerca in sicurezza informatica HackerHood, parte dell’universo della community di Red Hot Cyber, ha recentemente scoperto due nuove vulnerabilità ...