Facebook sta investendo sforzi significativi per far rispettare gli standard della comunità per i partecipanti sulle sue varie piattaforme social. In questo senso, oltre ad avere personale umano incaricato di garantire la compliance, Facebook si affida alle tecnologie di Intelligenza Artificiale, e oggi ha offerto un’anteprima dei progressi compiuti negli ultimi tempi in questo ambito.
A questo proposito, ha fatto riferimento a sistemi attualmente in uso come Reinforcement Integrity Optimizer (RIO), implementato alla fine dello scorso anno, che secondo lui ha contribuito a ridurre significativamente l’incitamento all’odio e altri tipi di post indesiderati sulle sue piattaforme social nel primo semestre dell’anno.
Mike Schroepfer, CTO di Facebook, ha dichiarato: “L’intelligenza artificiale è un campo incredibilmente in rapida evoluzione e molte delle parti più importanti dei nostri attuali sistemi di intelligenza artificiale si basano su tecniche come l’automonitoraggio, che sembrava un futuro lontano solo pochi anni fa”.
A tal proposito spiega che invece di addestrare un sistema basato su AI basato su un set di dati fisso, con RIO hanno optato per un modello in cui il sistema apprende direttamente milioni di contenuti attuali, adattandosi nel tempo per svolgere al meglio il proprio lavoro .
Schroepfer sostiene che l’approccio utilizzato in RIO è “incredibilmente prezioso” per la conformità agli standard UE, aggiungendo che:
Poiché la natura del problema è in continua evoluzione insieme agli eventi attuali, quando sorgono nuovi problemi, i nostri sistemi devono essere in grado di adattarsi rapidamente. L’apprendimento per rinforzo è un approccio potente per aiutare l’IA ad affrontare nuove sfide quando mancano dati di formazione validi.
A questo proposito, si aspettano che RIO continui ad aiutare nel tempo a ridurre ulteriormente l’incitamento all’odio sulla piattaforma.
Ma oltre a RIO, Facebook stanno anche sostituendo i sistemi personalizzati monouso con quelli più generali, vedendo “miglioramenti impressionanti” attraverso l’uso di modelli di intelligenza artificiale multimodali, che possono funzionare con più linguaggi e più tipi di contenuti.
Schroepfer ha anche fatto riferimento a modelli di apprendimento “zero-shot” e “pochi shot” che consentono all’intelligenza artificiale di identificare i contenuti illeciti, anche se ne hanno a malapena o mai avuto un esempio.
Ha affermato che “l’apprendimento zero-shot e pochi-shot è uno dei tanti domini di intelligenza artificiale all’avanguardia in cui abbiamo effettuato significativi investimenti nella ricerca e prevediamo di vedere risultati nel prossimo anno”.