Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Deepfake e Telegram: I Bot che Spogliano le Donne Minacciano la Privacy

16 Ottobre 2024 10:43

I bot del popolare messenger Telegram che creano immagini pornografiche basate su fotografie sono diventati un vero problema, nonostante i tentativi dei legislatori e delle società IT di combatterli.

L’esperto di deepfake Henry Eider nel 2020 ha scoperto uno dei primi robot in grado di “spogliare” immagini di donne utilizzando l’intelligenza artificiale. Secondo lui, all’epoca furono create più di 100.000 fotografie esplicite, comprese immagini di bambini. Questo caso è stato una pietra miliare significativa che ha dimostrato a cosa possono portare i deepfake.

Da allora, la tecnologia si è evoluta e ora su Telegram puoi trovare decine di bot che offrono di creare immagini di nudo o pornografiche in pochi clic. Un recente studio di WIRED ha identificato almeno 50 bot di questo tipo, alcuni dei quali particolarmente popolari, con oltre 400.000 utenti. Allo stesso tempo, in totale tutti questi bot contano circa 4 milioni di utenti attivi al mese.

Aider sottolinea che il numero di persone che utilizzano tali strumenti è aumentato notevolmente, soprattutto rispetto al 2020. Nota che tali tecnologie rappresentano una seria minaccia, soprattutto per le ragazze e le donne, e sono ancora facilmente accessibili tramite Telegram. I bot che violano la privacy sono spesso accompagnati da canali in cui gli utenti possono iscriversi agli aggiornamenti su nuove funzionalità e offerte.

Sebbene Telegram abbia rimosso 75 bot e canali correlati in seguito alle domande di WIRED, il problema non è scomparso. Nuovi bot continuano ad apparire nonostante i tentativi della piattaforma di combatterli. Secondo Elena Michael, direttrice della campagna #NotYourPorn, Telegram è difficile da monitorare e moderare, rendendo la piattaforma particolarmente pericolosa per le vittime della violenza deepfake.

In particolare, la maggior parte dei bot richiede agli utenti di acquistare token per creare immagini e le regole contro il caricamento di immagini senza consenso sono limitate. Inoltre, Telegram fornisce funzioni di ricerca che facilitano la ricerca e l’utilizzo di tali bot.

Mentre in diversi paesi vengono adottate misure legislative e le aziende IT aggiornano le proprie politiche, Telegram rimane una delle piattaforme chiave su cui continuano a diffondersi immagini deepfake.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Stefano Gazzella 300x300
Privacy Officer e Data Protection Officer, è Of Counsel per Area Legale. Si occupa di protezione dei dati personali e, per la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Responsabile del comitato scientifico di Assoinfluencer, coordina le attività di ricerca, pubblicazione e divulgazione. Giornalista pubblicista, scrive su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.
Aree di competenza: Privacy, GDPR, Data Protection Officer, Legal tech, Diritti, Meme
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoCybercrime
Campagna di phishing su Signal in Europa: sospetto coinvolgimento di attori statali
Bajram Zeqiri - 07/02/2026

Le autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…