L’algoritmo di ritaglio automatico delle foto di Twitter ha favorito “volti giovani, magri e dalla pelle chiara”, secondo i risultati di un concorso indetto dal social network.
La società ha disattivato il ritaglio automatico delle foto a marzo di quest’anno. Molti utenti hanno sottolineato che, quando si pubblica un’immagine di gruppo, i bianchi sono stati evidenziati sui neri.
Il concorso organizzato da Twitter ha corroborato la situazione. I partecipanti, esperti di Intelligenza Artificiale, hanno evidenziato i pregiudizi che alimentavano il sistema della rete.
I vincitori hanno dimostrato che l’algoritmo ha favorito “volti giovani, magri, dalla pelle chiara, dalla consistenza della pelle liscia, con caratteristiche stereotipicamente femminili”. Il primo posto è andato a Bogdan Kulynych, uno studente laureato all’EPFL: ha ricevuto $ 3,500.
In secondo luogo, è stato sottolineato che era prevenuto nei confronti delle persone con i capelli bianchi o grigi, il che implicava una discriminazione in base all’età.
Mentre al terzo posto è stato notato che ha favorito l’inglese rispetto alla scrittura araba nelle immagini.
Alla ricerca di miglioramenti nell’intelligenza artificiale di Twitter
Ricordiamo che il sistema è in costante sviluppo, quindi può ancora essere migliorato. Quello che Twitter stava cercando era, sulla base delle opinioni e dei risultati degli esperti, una linea guida migliore per il ritaglio automatico delle foto.
Rumman Chowdhury, capo del team META di Twitter, analizzato i risultati.
Il 3° posto va a @RoyaPak che ha sperimentato l’algoritmo di salienza di Twitter utilizzando meme bilingue. Questa voce mostra come l’algoritmo favorisce il ritaglio delle scritture latine rispetto alle scritture arabe e cosa significa in termini di danni alla diversità linguistica online.
— Twitter Engineering (@TwitterIta) 9 agosto 2021
Ha detto: “Quando pensiamo ai pregiudizi nei nostri modelli, non si tratta solo di quello accademico o sperimentale”, ha detto il dirigente. (Riguarda) come funziona anche con il modo in cui pensiamo alla società”.
“Uso la frase ‘la vita imita l’arte e l’arte imita la vita’. Creiamo questi filtri perché pensiamo che sia ciò che è bello, e questo finisce per addestrare i nostri modelli e guidare queste nozioni irrealistiche su cosa significhi essere attraenti”.
Il team META di Twitter studia l’etica, la trasparenza e la responsabilità dell’apprendimento automatico.
Come è arrivato il vincitore alla sua conclusione?
Per Bogdan Kulynych, per giungere alle sue conclusioni sull’algoritmo di Twitter, ha utilizzato un programma di intelligenza artificiale chiamato StyleGAN2. Con esso, ha generato un gran numero di volti reali che ha variato in base al colore della pelle, nonché ai tratti del viso e alla magrezza femminili rispetto a quelli maschili.
Wow, questa è stata una conclusione inaspettata della settimana! La mia presentazione è stata premiata con il 1° posto nel programma Algorithmic Bias di Twitter. Molte grazie a @ruchowdh, @TwitterEng Il team META e la giuria…
— Bogdan Kulynych (@hiddenmarkov) 8 agosto 2021
Come spiega Twitter, Kulynych ha inserito le varianti nell’algoritmo di ritaglio automatico delle foto della rete, trovando quale fosse la sua preferita.
“(Hanno ritagliato) quelli che non soddisfacevano le preferenze dell’algoritmo per peso corporeo, età e colore della pelle”, ha evidenziato l’esperto nei suoi risultati.
Aziende e pregiudizi razziali, come li affronti?
Twitter, con il suo contest, ha confermato la natura pervasiva del social bias nei sistemi algoritmici. Ora arriva una nuova sfida: come combattere questi pregiudizi?
“L’intelligenza artificiale e l’apprendimento automatico sono solo il selvaggio West, non importa quanto pensi che sia abile il tuo team di data science”, ha osservato Patrick Hall, ricercatore di intelligenza artificiale.
“Se non trovi i tuoi errori, o le taglie degli insetti non trovano i tuoi errori, chi sta trovando i tuoi errori? Perché hai degli errori.”
Le sue parole rimandano al lavoro di altre aziende quando hanno fallimenti simili. The Verge ricorda che quando un team del MIT ha trovato pregiudizi razziali e di genere negli algoritmi di riconoscimento facciale di Amazon, la società ha screditato i ricercatori.
Successivamente ha dovuto vietare temporaneamente l’uso di tali algoritmi.