Redazione RHC : 19 Aprile 2023 16:00
Negli ultimi anni, l’uso di intelligenza artificiale (AI) nella creazione di immagini ha fatto grandi progressi, ma con esso sono emersi anche problemi di disinformazione e manipolazione delle immagini. L’uso di immagini create con AI per la diffusione di notizie false può rappresentare una minaccia significativa per la società, poiché le immagini hanno il potere di influenzare le opinioni delle persone e di plasmare le loro percezioni della realtà.
Le immagini create con l’AI possono essere utilizzate per una vasta gamma di attività fraudolente, tra cui la falsificazione di documenti ufficiali, la creazione di profili social fasulli e la creazione di immagini pornografiche non consensuali.
Inoltre, le immagini create con AI possono essere utilizzate per creare contenuti che sembrano reali ma che in realtà non lo sono, come ad esempio la creazione di video deepfake che mostrano persone che dicono cose che non hanno mai detto.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
La disinformazione tramite immagini create con l’AI può essere particolarmente pericolosa quando si tratta di questioni di sicurezza nazionale. Ad esempio, potrebbe essere utilizzata per creare immagini false di eventi che non sono mai accaduti, come attacchi terroristici o incidenti nucleari, con conseguente allarme pubblico e risposta da parte delle autorità.
Inoltre, l’uso di immagini create con AI per diffondere disinformazione può anche alimentare la polarizzazione politica e la diffidenza verso le istituzioni. La diffusione di immagini false che dipingono i politici in modo negativo può aumentare il cinismo pubblico verso il governo e alimentare la sfiducia nelle elezioni e nei processi democratici.
L’uso di immagini create con AI per la disinformazione rappresenta anche una sfida per la verificabilità delle notizie. Con la diffusione di immagini false che sembrano reali, diventa più difficile per le persone determinare se una notizia è vera o falsa. Ciò può alimentare la diffidenza verso i media tradizionali e la propensione a credere a teorie del complotto.
Questa foto sembra essere autentica e ritrae Boris Johnson accanto a della spazzatura con una faccia depressa, mentre un cane gli sta vicino per alleviare la sua solitudine. Questa immagine è stata creata con una intelligenza artificiale che consente, passati alcuni parametri di input di ricreare immagini che possono risultare ad un primo sguardo autentiche.
Per contrastare la disinformazione tramite immagini create con l’AI, sono necessarie misure di sicurezza tecniche e politiche. Ad esempio, le piattaforme di social media devono sviluppare metodi per rilevare e rimuovere immagini create con AI che diffondono disinformazione. Inoltre, i governi dovrebbero promuovere la trasparenza e la responsabilità nell’uso dell’AI e fornire risorse per educare il pubblico sulla disinformazione e sulle tecniche di verifica delle notizie.
In conclusione, la disinformazione tramite immagini create con l’AI rappresenta una minaccia per la società che richiede un’azione urgente. Le conseguenze della disinformazione possono essere gravi e le immagini create con AI stanno diventando sempre più sofisticate, quindi è importante agire con prontezza per prevenire ulteriori danni.
Per poter comprendere se si è di fronte ad una immagine fake, è possibile utilizzare gli strumenti di ricerca inversa messi a disposizione dal web, come ad esempio Google ricerca inversa delle immagini per trovare l’origine della fonte e vedere se è stata manipolata o meno.
Effettuare delle ricerche incrociate di più fonti per comprendere e confrontare la copertura della notizia.
Sicuramente il lavoro per capire se si è di fronte ad una notizia autentica o meno diventa sempre più complicato sul web.
All’interno del Patch Tuesday di marzo è stata inclusa la CVE-2025-24983, una Vulnerabilità di elevazione dei privilegi del sottosistema kernel Win32 di Microsoft Windows. La Cybersec...
Giovedì 8 maggio, la Red Hot Cyber Conference 2025 ospiterà un’intera giornata dedicata ai ragazzi con i Workshop Hands-on (organizzati in collaborazione con Accenture Italia). Si tra...
Nelle ricognizioni nel mondo dell’underground e dei gruppi criminali svolte dal laboratorio di intelligence delle minacce DarkLab di Red Hot Cyber, ci siamo imbattuti all’interno di un D...
Nella giornata di oggi, la banda di criminali informatici di FUNKSEC rivendica all’interno del proprio Data Leak Site (DLS) un attacco informatico all’università italiana di Modena ...
L’attacco informatico a X, il social network di Elon Musk, ha scatenato una vera e propria caccia ai responsabili. Dopo le dichiarazioni dello stesso Musk, che ha attribuito l’attacco a ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006