- Lo strumento AI di Meta, Imagine, è stato criticato per aver difficoltà a creare immagini di coppie o amici interrazziali
- Similmente all’incidente dei Gemelli, Imagine fatica a rappresentare accuratamente le relazioni interrazziali
- Meta riconosce il problema e promette di affrontare i pregiudizi nei sistemi di intelligenza artificiale attraverso il feedback e il miglioramento degli utenti
- Le preoccupazioni etiche che circondano gli strumenti di rendering dell’intelligenza artificiale evidenziano la necessità che i giganti della tecnologia diano priorità alla trasparenza e affrontino efficacemente i pregiudizi razziali
L’industria dell’intelligenza artificiale è in subbuglio tra lo strumento di creazione AI di Meta Imagine e Meta AI, Sora e DALL-E 3. Secondo recenti rapporti, lo strumento AI di Meta è stato criticato per avere problemi nel creare immagini di coppie o amici interrazziali.
Nei test eseguiti dalla CNN, lo strumento ha prodotto immagini di coppie della stessa razza invece di creare immagini di coppie interrazziali. Questo è simile all’incidente dei Gemelli che abbiamo condiviso con te in precedenza. Anche i Gemelli hanno avuto un problema simile e hanno ricevuto una grande reazione.
Ecco tutto quello che devi sapere…
Immagina che con Meta AI non sia possibile generare immagini di persone di razze diverse
Con l’avanzamento della tecnologia, l’intelligenza artificiale si è diffusa in ogni settore, compresi gli strumenti per la creazione di immagini.
Entrando nei dettagli dei test, secondo quanto riferito, lo strumento di rendering AI ha faticato a riprodurre immagini di coppie asiatico-bianco, nero-bianco e asiatico-nero.
Meta ha riconosciuto il problema e si è collegato a a post sul blog pubblicato a settembre sulla creazione responsabile di funzionalità di intelligenza artificiale efficienti. Il post sul blog dell’azienda diceva:
“Stiamo adottando misure per ridurre i pregiudizi. Affrontare potenziali distorsioni nei sistemi di intelligenza artificiale produttivi è una nuova area di ricerca. Come con altri modelli di intelligenza artificiale, avere più persone che utilizzano le funzionalità e condividono feedback può aiutarci a perfezionare il nostro approccio”.
I giganti della tecnologia devono fare di più per eliminare i pregiudizi razziali nei modelli di intelligenza artificiale.
Nel frattempo, Sora, lo strumento di produzione video di OpenAI, ha rilasciato un nuovo video musicale. Posso dire che ha fatto davvero un lavoro incredibile. D’altra parte, il CEO di YouTube Neal Mohan ha messo in guardia OpenAI sulla formazione di Sora. L’avvertimento è arrivato dopo che il CTO di OpenAI Mira Murati non ha risposto alla domanda: “Sora è stato addestrato con i video di YouTube?si è chiesta il mese scorso Joanna Stern del Wall Street Journal.
Di seguito potete guardare il video musicale prodotto da Sora:
Sebbene gli strumenti di creazione di immagini basati sull’intelligenza artificiale siano entusiasmanti per le loro possibilità, sollevano anche importanti questioni etiche, come i pregiudizi razziali. I giganti della tecnologia devono fare di più per affrontare questi problemi e andare avanti in modo trasparente.
Credito immagine in primo piano: Dima Solomin / Unsplash
Source: Il generatore di immagini AI di Meta non riesce a produrre immagini di coppie interrazziali