Sebbene una definizione di equità come parola possa essere concordata, in termini concreti, la sua concreta applicazione può essere oggetto di ulteriore analisi.
Proprio come definire ciò che è giusto o no può essere un vero dilemma per le persone, è anche una sfida per l’intelligenza artificiale e una nuova iniziativa della Michigan State University sta cercando di alleviare.
Classi di equità per algoritmi di intelligenza artificiale
Considerando che i sistemi di intelligenza artificiale sono sempre più presenti nelle attività e nei servizi quotidiani, è necessario fornire sufficiente imparzialità alle piattaforme coinvolte nel decidere chi riceve le giuste cure mediche, chi ha diritto a un prestito bancario, o chi viene assegnato un lavoro.
Con i finanziamenti di Amazon e della National Science Foundation, Pang-Ning Tan, ricercatore e professore presso il Dipartimento di Informatica e Ingegneria presso la suddetta università statunitense, ha trascorso l’ultimo anno ad addestrare algoritmi di intelligenza artificiale per aiutarli a discernere tra equità e ingiustizia delle loro azioni.
“Stiamo cercando di progettare sistemi di intelligenza artificiale che non siano solo per l’informatica, ma portino anche valore e benefici alla società. Così ho iniziato a pensare a quali sono le aree che rappresentano una sfida per la società in questo momento “, ha detto il ricercatore in merito alla logica alla base della sua iniziativa.
Questo progetto solleva la necessità di sviluppare iniziative con un impatto diretto sui suoi utenti. Sviluppando questo stesso punto, Tan ha anche commentato che “l’equità è un grosso problema, soprattutto perché diventiamo più dipendenti dall’intelligenza artificiale per le esigenze quotidiane, come le cure mediche, ma anche per cose che sembrano banali, come filtrare lo spam o inserire storie nella sezione delle notizie . “
Anche come sistemi automatizzati, gli algoritmi di intelligenza artificiale possono trasportare determinati pregiudizi ereditati dai dati utilizzati nella loro formazione o addirittura essere trasmessi direttamente dai loro creatori. Ad esempio, secondo un sondaggio condotto dal team di ricerca di Tan, ci sono casi di sistemi di intelligenza artificiale che discriminano razzialmente nella gestione delle cure mediche e della segregazione sessuale contro le donne nei sistemi di domanda di lavoro.
Su questa realtà, Abdol-Hossein Esfahanian, un membro del team di ricerca di Tan, ha commentato che “gli algoritmi sono creati da persone e le persone di solito hanno pregiudizi, quindi questi pregiudizi vengono filtrati … vogliamo avere equità ovunque e vogliamo avere una migliore comprensione di come valutarlo.
Con il supporto delle teorie delle scienze sociali, Tan e il suo team cercano di approssimare la nozione più universale possibile di equità. Per raggiungere questo scopo, i principi di correttezza trasmessi all’algoritmo non verranno da un unico punto di vista, sfidandolo a decidere tra posizioni concorrenti o contraddittorie.
“Stiamo cercando di rendere l’IA consapevole della giustizia e, per farlo, devi dirgli cosa è giusto. Ma come si progetta una misura di correttezza che sia accettabile per tutti? ” ha osservato Tan, aggiungendo che “stiamo osservando come una decisione influisce non solo sugli individui, ma anche sulle loro comunità e circoli sociali”.
Il lavoro è ambizioso e, nonostante i progressi, è solo all’inizio. “Questa è una ricerca molto continua. Ci sono molti problemi e sfide: come definisci l’equità, come puoi aiutare le persone a fidarsi di questi sistemi che usiamo ogni giorno “, ha riflettuto Tan, aggiungendo che” il nostro lavoro di ricercatori è trovare soluzioni a questi problemi “.
È possibile accedere al rapporto completo di questa ricerca sul Sito web della Michigan State University.