Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

ChatGPT va oltre le parole. Sfida il riconoscimento facciale con capacità sorprendenti!

Alessia Tomaselli : 23 Luglio 2023 09:15

OpenAI si preoccupa di ciò che il suo Chatbot dirà sui volti delle persone. Una versione avanzata di ChatGPT è in grado di analizzare le immagini e sta già aiutando i non vedenti. Ma la sua capacità di associare un nome a un volto è qualcosa di incredibile.

Il chatbot che milioni di persone hanno usato per scrivere tesine, codici informatici e favole non si limita alle parole. ChatGPT, lo strumento di OpenAI dotato di intelligenza artificiale, è in grado di analizzare anche le immagini, descrivendo cosa contengono, rispondendo a domande e riconoscendo persino i volti di determinate persone. La speranza è che, alla fine, qualcuno possa caricare la foto del motore di un’auto in panne o di una misteriosa eruzione cutanea e ChatGPT possa suggerire la soluzione.

OpenAI non vuole che ChatGPT diventi una macchina per il riconoscimento facciale.

Jonathan Mosen e l’esperienza con ChatGPT

Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.

Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.

Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

Negli ultimi mesi, Jonathan Mosen ha fatto parte di un gruppo selezionato di persone che hanno accesso a una versione avanzata del chatbot in grado di analizzare le immagini. Durante un recente viaggio, il signor Mosen, amministratore delegato di un’agenzia di collocamento e non vedente, ha utilizzato l’analisi visiva per determinare quali dispenser nel bagno di una camera d’albergo fossero shampoo, balsamo e gel doccia. Il risultato è andato ben oltre le prestazioni del software di analisi delle immagini che aveva usato in passato.

“Mi ha detto la capacità in millilitri di ogni flacone. Mi ha fornito informazioni sulle piastrelle della doccia”, ha detto Mosen. “Descriveva tutto questo nel modo in cui una persona non vedente ha bisogno di sentirselo dire. E con una sola immagine ho avuto esattamente le risposte che mi servivano”.

Per la prima volta, Mosen è in grado di “interrogare le immagini”. Ha fatto un esempio: Il testo che accompagna un’immagine che ha trovato sui social media la descrive come una “donna con i capelli biondi che sembra felice”. Quando ha chiesto a ChatGPT di analizzare l’immagine, il chatbot ha risposto che si trattava di una donna con una camicia blu scuro che si scattava un selfie in uno specchio a figura intera. L’utente ha potuto fare altre domande, come ad esempio che tipo di scarpe indossava e cos’altro era visibile nel riflesso dello specchio.

“È straordinario”, ha dichiarato il signor Mosen, 54 anni, che vive a Wellington, in Nuova Zelanda, e ha reso noto il potenziale della tecnologia in un podcast che conduce sul tema “vivere alla cieca”.

Be my Eyes

A marzo, quando OpenAI ha annunciato GPT-4, l’ultimo modello di software che alimenta il suo chatbot A.I., l’azienda ha dichiarato che era “multimodale”, cioè in grado di rispondere a richieste di testo e immagini. Mentre la maggior parte degli utenti ha potuto conversare con il bot solo a parole, il signor Mosen ha avuto accesso anticipato all’analisi visiva da Be My Eyes, una start-up che di solito mette in contatto utenti non vedenti con volontari vedenti e fornisce un servizio clienti accessibile alle aziende. Quest’anno Be My Eyes ha collaborato con OpenAI per testare la “vista” del chatbot prima del rilascio della funzione al pubblico.

Recentemente, l’applicazione ha smesso di fornire al signor Mosen informazioni sui volti delle persone, dicendo che erano stati oscurati per motivi di privacy. Il signor Mosen è rimasto deluso, ritenendo di dover avere lo stesso accesso alle informazioni di una persona vedente.

La preoccupazione di OpenAI

Il cambiamento riflette la preoccupazione di OpenAI di aver costruito qualcosa con un potere che non vuole rendere pubblico.

La tecnologia dell’azienda è in grado di identificare principalmente figure pubbliche, come le persone con una pagina di Wikipedia, ha dichiarato Sandhini Agarwal, ricercatore di OpenAI, ma non funziona in modo così completo come gli strumenti costruiti per trovare i volti su Internet, come quelli di Clearview AI e PimEyes. Secondo Agarwal, lo strumento è in grado di riconoscere l’amministratore delegato di OpenAI, Sam Altman, nelle foto, ma non altre persone che lavorano nell’azienda.

Rendere pubblica una funzione di questo tipo significherebbe oltrepassare i limiti di quelle che sono le pratiche generalmente considerate accettabili dalle aziende tecnologiche statunitensi. Potrebbe anche causare problemi legali, come l’Illinois e l’Europa, che richiedono alle aziende di ottenere il consenso dei cittadini per utilizzare le loro informazioni biometriche, compresa l’impronta del volto.

Inoltre, OpenAI teme che lo strumento possa dire cose che non dovrebbe dire sul volto delle persone, come valutare il loro sesso o il loro stato emotivo. OpenAI sta cercando di risolvere questi e altri problemi di sicurezza prima di rilasciare ampiamente la funzione di analisi delle immagini, ha dichiarato Agarwal.

“Vogliamo prendere una decisione che prenda in considerazione anche l’opinione pubblica”, ha detto. Se sentiamo dire: “In realtà non vogliamo nulla di tutto ciò”, siamo d’accordo”.

Diverse problematiche con ChatGPT

Oltre al feedback degli utenti di Be My Eyes, la divisione no-profit dell’azienda sta anche cercando di trovare un modo per ottenere “input democratici” che aiutino a definire le regole per i sistemi di intelligenza artificiale.

Agarwal ha detto che lo sviluppo dell’analisi visiva non è stato “inaspettato”, perché il modello è stato addestrato esaminando immagini e testi raccolti da Internet. Ha sottolineato che esiste già un software per il riconoscimento facciale delle celebrità, come ad esempio uno strumento di Google. Google offre un opt-out per le persone famose che non vogliono essere riconosciute, e OpenAI sta considerando questo approccio.

Agarwal ha detto che l’analisi visiva di OpenAI potrebbe produrre “allucinazioni” simili a quelle viste con i messaggi testuali. “Se gli si dà un’immagine di qualcuno che sta per diventare famoso, potrebbe sbagliare il suo nome”, ha detto. “Ad esempio, se gli fornisco l’immagine di un famoso amministratore delegato di un’azienda tecnologica, potrebbe darmi il nome di un altro amministratore delegato”.

Una volta lo strumento ha descritto in modo impreciso un telecomando al signor Mosen, dicendogli con sicurezza che c’erano dei pulsanti che non c’erano, ha detto.

Anche Microsoft, che ha investito 10 miliardi di dollari in OpenAI, ha accesso allo strumento di analisi visiva. Alcuni utenti del chatbot Bing, alimentato dall’A.I. di Microsoft, hanno visto la funzione apparire in una versione limitata; dopo aver caricato le immagini, hanno ricevuto un messaggio che li informava che “la sfocatura della privacy nasconde i volti dalla chat di Bing”.

L’AI sta diventando sempre più umana

Sayash Kapoor, informatico e dottorando presso l’Università di Princeton, ha utilizzato lo strumento per decodificare un captcha, un controllo di sicurezza visivo che deve essere comprensibile solo agli occhi umani. Pur decifrando il codice e riconoscendo le due parole oscurate fornite, il chatbot ha osservato che “i captcha sono progettati per impedire ai bot automatizzati come me di accedere a determinati siti web o servizi”.

“L’IA sta semplicemente superando tutti gli elementi che dovrebbero separare gli esseri umani dalle macchine”, ha dichiarato Ethan Mollick, professore associato che studia l’innovazione e l’imprenditorialità presso la Wharton School dell’Università della Pennsylvania.

Da quando il mese scorso lo strumento di analisi visiva è apparso improvvisamente nella versione del chatbot di Bing del signor Mollick – rendendolo, senza alcuna notifica, una delle poche persone con accesso anticipato – non ha più spento il computer per paura di perderlo. Gli ha dato una foto di condimenti in un frigorifero e ha chiesto a Bing di suggerire ricette per quegli ingredienti. Ha proposto “soda alla panna montata” e “salsa cremosa al jalapeño”.

Conclusioni

Sia OpenAI che Microsoft sembrano consapevoli della potenza e delle potenziali implicazioni per la privacy di questa tecnologia. Un portavoce di Microsoft ha dichiarato che l’azienda non sta condividendo “dettagli tecnici” sull’offuscamento del volto, ma che sta lavorando “a stretto contatto con i partner di OpenAI per sostenere il nostro impegno condiviso per l’impiego sicuro e responsabile delle tecnologie di intelligenza artificiale”.

Alessia Tomaselli
Laureata in Mediazione Linguistica per le lingue inglese e spagnolo, attualmente lavora come copywriter presso s-mart.biz, società leader nella sicurezza informatica.