Redazione RHC : 22 Giugno 2024 09:38
Mercoledì, Stability AI ha introdotto una nuova versione del suo modello di sintesi delle immagini, Stable Diffusion 3 Medium. Questo modello converte le query di testo in immagini, ma l’inferenza prodotta ha attirato un’ondata di critiche a causa della scarsa qualità delle immagini delle persone, soprattutto rispetto a Midjourney e DALL-E 3.
Come si è scoperto, SD3 Medium crea spesso immagini anatomicamente errate, che è diventato motivo di scherno. C’era un thread su Reddit chiamato “Questo episodio è uno scherzo? [SD3-2B]”, in cui gli utenti condividono esempi di fallimenti di SD3 Medium durante la creazione di immagini di persone, in particolare mani e piedi.
Un altro thread discute i problemi legati alla generazione di immagini di ragazze sdraiate sull’erba.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Generare le mani è stato tradizionalmente un compito impegnativo per i generatori di immagini a causa della mancanza di esempi nei set di dati di addestramento. I modelli moderni hanno già imparato a far fronte a questo compito, ma Stable Diffusion 3 Medium ha fatto un passo indietro.
Gli utenti ritengono che il motivo per cui SD3 Medium fallisce sia dovuto al filtraggio dei contenuti per adulti dai dati di addestramento. “La pesante censura dei modelli rimuove anche i dati anatomici, ecco cosa è successo”, ha osservato un utente.
Gli stessi problemi sono sorti con il rilascio di Stable Diffusion 2.0 nel 2022. Quindi il filtraggio dei contenuti per adulti ha ridotto la capacità del modello di generare un’anatomia umana accurata. L’intelligenza artificiale ha risolto questo problema in SD 2.1 e SD XL, ripristinando parzialmente le abilità perse.
Alcuni utenti ritengono che il filtro NSFW utilizzato per ripulire i dati di addestramento fosse troppo rigido. Di conseguenza, le immagini che non contenevano contenuti sessuali ma erano importanti per addestrare il modello a rappresentare correttamente le persone in varie situazioni potrebbero essere state rimosse dal set di dati.
Un utente Reddit ha scritto: “[SD3] funziona bene finché non ci sono persone nell’inquadratura. Sembra che il loro filtro NSFW migliorato abbia deciso che qualsiasi umanoide sia NSFW.”
Microsoft ha rilasciato un aggiornamento di sicurezza critico per risolvere il CVE-2025-29810, una vulnerabilità di elevazione dei privilegi che colpisce Active Directory Domain Services (AD DS)....
Se ti violano la password, cambi la password. Se ti violano l’impronta digitale, non puoi cambiare il dito. Fatta questa doverosa premessa, l’autenticazione biometrica sta sostituendo at...
E’ stata scoperta una nuova falla di sicurezza che affligge i Servizi di Desktop remoto di Microsoft Windows che potrebbe consentire agli aggressori di eseguire codice arbitrario in remoto sui ...
Microsoft Threat Intelligence ha rivelato lo sfruttamento attivo di una vulnerabilità zero-day nel Common Log File System (CLFS) di Windows, identificata come CVE-2025-29824. L’exploit, ut...
Fortinet ha rilasciato un avviso di sicurezza per risolvere una vulnerabilità critica nei prodotti FortiSwitch. La vulnerabilità, identificata come CVE-2024-48887 (CVSS 9.3), potrebbe consen...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006