Sebbene l’intelligenza artificiale si stia sviluppando rapidamente, sembra che il sistema di riconoscimento delle immagini di Google abbia ancora una difficoltà che esiste da otto anni: rilevare con successo le immagini dei gorilla.
Quando l’ingegnere del software Jacky Alciné ha scoperto che una foto di lui e di un amico era stata erroneamente identificata come gorilla dall’algoritmo di riconoscimento delle immagini che era stato incluso nell’app Foto dell’azienda nel 2015, l’azienda è stata presa di mira. Entrambi Alcine e il suo compagno sono Nero. Google è rimasto inorridito e ha risolto rapidamente l’errore razzista impedendo al programma di etichettare le fotografie dei gorilla.
Il problema non è ancora stato risolto adeguatamente otto anni dopo. Gli utenti sono stati in grado di cercare le loro immagini in base a varie specie animali, come gatti e canguri, ma non a gorilla, babbuini, scimpanzé, oranghi o scimmie, secondo un Esperimento del New York Times.
Le immagini dei primati non sono ancora etichettate nel file Fotografie app. Non è chiaro se la società non sia in grado di riparare il problema o se l’implementazione della funzione sarebbe troppo controversa o pericolosa. È interessante notare che il bug ha interessato anche il software di archiviazione OneDrive di Microsoft e L’app Foto di AppleSebbene Amazzonia Fotografie spesso identificava erroneamente altri animali come gorilla.
Alcine ha espresso il suo disappunto per il fatto che Google non avesse ancora risolto il problema. Non avrò mai fiducia in questa IA, disse.
OpenAI promuove il controllo democratico dell’AGI
Il braccio senza scopo di lucro di OpenAI ha promesso di regalare un totale di 1 milione di dollari a coloro che avessero suggerimenti innovativi su come creare un sistema democratico che consentisse alla gente comune di influenzare il progresso dell’IA.
Fino al 2 giugno, chiunque può inviare i propri suggerimenti. Le migliori dieci proposte saranno scelte dalla startup AI, che assegnerà quindi a ciascun vincitore $100.000 così possono iniziare a sviluppare prototipi per i loro concetti.
Questa settimana, OpenAI ha affermato in un post sul blog che “l’AGI dovrebbe avvantaggiare tutta l’umanità ed essere progettata per essere il più inclusiva possibile”. “Questo programma di premi viene avviato come primo passo in quella direzione. Cerchiamo team da tutto il mondo per creare prove di concetto per una procedura democratica che possa affrontare le preoccupazioni sulle norme a cui i sistemi di intelligenza artificiale devono attenersi.
Secondo OpenAI, le sovvenzioni sono esperimenti e la società può o meno mettere in pratica uno qualsiasi dei concetti. L’azienda è attratta da approcci che incoraggiano il feedback di un’ampia gamma di persone su questioni che non sempre vengono gestite al meglio aderendo alla lettera della legge.
“Ad esempio, dato che vari gruppi hanno punti di vista diversi su personaggi pubblici, in quali circostanze i sistemi di intelligenza artificiale dovrebbero denunciare o criticare tali persone?
Come dovrebbero essere rappresentate le opinioni divergenti nei risultati dell’IA? L’intelligenza artificiale dovrebbe rappresentare la persona della persona media nel mondo, la nazione dell’utente, la sua demografia o qualcosa di completamente diverso per impostazione predefinita? Nessuno, azienda o nazione dovrebbe avere il potere di esprimere questi giudizi, ha affermato.
$ 450 milioni vengono raccolti da Anthropic in un investimento di serie C
Anthropic, un’azienda di intelligenza artificiale formata in parte da ex personale di OpenAI, ha ottenuto 450 milioni di dollari nel suo ultimo round di finanziamento, guidato da Spark Capital.
Google, Salesforce Ventures, Sound Ventures, Zoom Ventures e altri investitori stanno supportando l’investimento di serie C. Claude, il modello linguistico esteso di Anthropic, viene utilizzato per arruolare nuovi consumatori. Secondo Amministratore Delegato Dario Amodeii fondi saranno utilizzati per sviluppare ulteriori articoli.
“Siamo felici che questi stimati investitori e aziende tecnologiche stiano assistendo Anthropic nel suo obiettivo di condurre ricerche sull’intelligenza artificiale e sviluppare soluzioni che promuovano la sicurezza. Le soluzioni che stiamo sviluppando hanno lo scopo di fornire servizi di intelligenza artificiale affidabili che andranno a vantaggio dei consumatori e delle aziende sia oggi che in futuro.
Anthropic ha affermato che il suo obiettivo era creare beni più sicuri utilizzando metodi di allineamento dell’IA per indirizzare il suo chatbot a seguire le istruzioni e fornire risposte accettabili. Di recente, l’azienda ha portato a 100.000 il supporto dei token della finestra di contesto di Claude, consentendole di analizzare centinaia di pagine di documenti contemporaneamente.
Vuoi sapere come iscriverti al motore di ricerca Google AI?
Source: Problemi di riconoscimento delle immagini di Google: i gorilla rappresentano ancora un problema