Il 27 giugno, secondo il New York Times, il problema si è verificato con un video del quotidiano British Daily Mail. Facebook si è scusato e ha disabilitato la funzione di raccomandazione per valutare il funzionamento della sua intelligenza artificiale a seguito delle proteste pubbliche.
Questo evento si aggiunge solo alla lunga lista di comportamenti razzisti e sessisti che l’IA replica. Abbiamo discusso di come i siti di social media come Facebook mettono in risalto le fotografie di persone bianche mentre discriminano altre razze in più di un’occasione.
All’utente è stato consigliato un video sui primati, in cui si vedono litigare un uomo di colore e un uomo bianco. Secondo quanto riportato dai media britannici, il maschio bianco è stato offensivo nei confronti dell’altra persona e la polizia ha dovuto essere chiamata. Ma, indipendentemente dall’oggetto del video, Facebook ha suggerito dopo il video con questo messaggio: “Vuoi continuare a guardare i video sui primati?”
Il Daily Mail è stato il primo a criticare Facebook, ma l’errore non è stato inizialmente rivelato loro. Più tardi Facebook si è scusato con il New York Times: “Come abbiamo detto prima, mentre abbiamo fatto progressi nell’intelligenza artificiale, non è perfetta e c’è ancora lavoro da fare”.
Per esaminare l’accaduto e cercare di impedire che si ripeta, l’azienda proprietaria anche di WhatsApp e Instagram ha disabilitato la funzione dei consigli nel suo social principale.
Altri errori
“Ogni giorno vediamo i limiti, i pregiudizi e la pura idiozia di affidarsi esclusivamente all’intelligenza artificiale. Eppure continuiamo a permetterci di essere cavie”, ha dichiarato la scrittrice di sicurezza informatica del New York Times Nicole Perlroth in risposta a questo esempio.
L’intelligenza artificiale non fa eccezione alla regola secondo cui gli esseri umani tendono a ereditare i pregiudizi l’uno dall’altro. Nelle ultime settimane, anche Twitter ha dovuto affrontare questa realtà: i suoi algoritmi intelligenti favoriscono le foto di giovani, bianchi.
I programmi che utilizzano l’intelligenza artificiale sono distorti perché spesso si basano su una serie di campioni o parametri per addestrare le funzioni. Sarà difficile per l’intelligenza artificiale identificare il resto dell’umanità che non soddisfa tali criteri se il campione è limitato e include molte immagini di una razza o genere.