Uno scandalo colossale è stato causato dal lavoro del servizio di raccomandazione di Facebook: ha contrassegnato il video del Daily Mail di una lotta tra uomini bianchi e neri come “un video con primati”.
Come notato in un articolo del New York Times, oltre a questo grave errore, i robot una volta che gli utenti avevano finito di vedere il video, hanno chiesto di “continuare a guardare il video dei primati”.
L’incidente si qualifica come un brutto e inaccettabile errore, ma tutta la colpa ricade sulle AI e algoritmi, notano gli autori del progetto politico-satirico “The Goat Shouted”.
Infatti, un portavoce del social network ha già affermato che:
“nonostante stiamo lavorando per migliorare l’intelligenza artificiale, sappiamo che non è perfetta e abbiamo molto lavoro da fare”.
ed inoltre hanno aggiunto:
“Ci scusiamo con tutti coloro che potrebbero aver visto queste raccomandazioni offensive”, – ci scusiamo su Facebook.
Si noti che esperti e lettori di entrambe le pubblicazioni hanno già suggerito che una tale pubblicazione sul social network
“viola le basi di BLM, che sono diventate le basi del mondo occidentale”.
Per BLM si intende Black Lives Matter (BLM, letteralmente “Le Vite Nere Contano”).
Ed inoltre riportano che Facebook è considerato uno dei social network più censurati al mondo.
Ricorda il NYT che nel 2015, Google Foto ha erroneamente etichettato le immagini di persone di colore come “gorilla”, per le quali Google si è detto “genuinamente dispiaciuto” e avrebbe lavorato per risolvere immediatamente il problema. Più di due anni dopo, Wired ha scoperto che la soluzione di Google era censurare la parola “gorilla” dalle ricerche, bloccando anche “scimpanzé”, “scimpanzé” e “scimmia”.
Facebook ha uno dei più grandi repository al mondo di immagini caricate dagli utenti su cui addestrare i suoi algoritmi di riconoscimento facciale e degli oggetti. La società, che adatta i contenuti agli utenti in base alle loro abitudini di navigazione e visualizzazione passate, a volte chiede alle persone se desiderano continuare a vedere i post nelle categorie correlate.
Fonte
https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…