Gli scienziati dell’Università di Twente (Paesi Bassi) hanno sviluppato un nuovo metodo di intelligenza artificiale in grado di costruire scene da immagini che possono servire come base per generare immagini realistiche e coerenti. Di recente hanno pubblicato i loro risultati sulla rivista IEEE Transactions on Pattern Analysis and Machine Intelligence.
I modelli di intelligenza artificiale generativa possono creare immagini basate su query di testo. Questi modelli funzionano meglio quando creano immagini di singoli oggetti. Creare scene complete è ancora difficile. Michael Ying Yang, ricercatore presso la facoltà ITC dell’Università di Twente, ha sviluppato un nuovo metodo in grado di costruire scene da immagini che possono servire come base per generare immagini realistiche e coerenti.

Cybersecurity Awareness efficace? Scopri BETTI RHC! Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Red hot cyber ha sviluppato da diversi anni una Graphic Novel (giunta al sesto episodio), l'unica nel suo genere nel mondo, che consente di formare i dipendenti sulla sicurezza informatica attraverso la lettura di un fumetto. Contattaci tramite WhatsApp al numero 375 593 1011 per saperne di più e richiedere informazioni oppure alla casella di posta graphicnovel@redhotcyber.com
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Gli esseri umani sono bravi a definire le relazioni tra gli oggetti. “Possiamo vedere che la sedia è sul pavimento e il cane sta camminando per strada. I modelli di intelligenza artificiale lo trovano impegnativo”, spiega Yang, professore associato dello Scene Understanding Group presso il Dipartimento di Geoscienze e Osservazione della Terra (ITC).
Migliorare la capacità del computer di rilevare e comprendere le relazioni visive è essenziale per la generazione di immagini, ma può anche aiutare anche a migliorare i veicoli a guida autonoma e i robot.
Attualmente esistono metodi per costruire una comprensione semantica di un’immagine, ma sono lenti. Questi metodi utilizzano un approccio in due fasi. Innanzitutto, visualizzano tutti gli oggetti nella scena. Nella seconda fase, una rete neurale specifica passa attraverso tutte le possibili connessioni e poi le etichetta con la relazione corretta. Il numero di connessioni che questo metodo deve attraversare aumenta in modo esponenziale con il numero di oggetti. “Il nostro modello fa solo un passo. Prevede automaticamente soggetti, oggetti e le loro relazioni allo stesso tempo”, afferma Yang.
Questo modello analizza il tutto in un’unica fase, esaminando le caratteristiche visive degli oggetti nella scena concentrandosi sui dettagli più importanti per determinare le relazioni. Evidenzia le aree importanti in cui gli oggetti interagiscono o sono correlati tra loro.
Queste tecniche di addestramento sono sufficienti per determinare le relazioni più importanti tra oggetti diversi. Resta solo da generare una descrizione di come sono correlati. “Il modello rileva che nell’immagine campione è molto probabile che una persona interagisca con una mazza da baseball. Poi impara a descrivere la relazione più probabile”, dice Yang.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
