Questa settimana, Miles Brundage, consulente senior del team di OpenAI che lavora sulla preparazione dell’AGI, ha lasciato l’azienda facendo notizia. Con una mossa che sottolinea le crescenti preoccupazioni all’interno della comunità dell’intelligenza artificiale, Brundage ha lanciato un chiaro avvertimento: no, nemmeno OpenAI né qualsiasi altro importante laboratorio di intelligenza artificiale è completamente preparato per i rischi dell’intelligenza generale artificiale (AGI).
È l’ultima di una serie di uscite di alto profilo, che solleva una domanda seria: esiste un punto in cui l’AGI non può potenzialmente influenzare la società? Forse anche i laboratori più avanzati non sono pronti a gestire il potenziale impatto dell’AGI sulla società.
Ho appena inviato questo messaggio ai miei colleghi ed elaboro la mia decisione e i prossimi passi in un post sul blog (vedi tweet successivo): pic.twitter.com/NwVHQJf8hM
—Miles Brundage (@Miles_Brundage) 23 ottobre 2024
Crescenti preoccupazioni per la sicurezza dell’IA poiché OpenAI perde ricercatori chiave
La partenza di Brundage è l’ultima di una serie di partenze presso OpenAI, che recentemente ha messo diversi gradi di distanza tra loro e l’azienda e la leadership. Tra le partenze figura il CTO Mira Murati, responsabile della ricerca Bob McGrewe ricerca Il vicepresidente Barret Zophpiù che una prova concreta che l’azienda abbia chiarito le sue priorità. In parte, lasciò Brundage perché voleva fare ricerca politica sull’IA senza alcuni dei vincoli che aveva sperimentato lavorando presso OpenAI, dove si era sentito sempre più ostacolato dal desiderio di OpenAI di limitare la libertà di pubblicazione. Ciò è stato seguito dallo scioglimento del team di preparazione AGI di OpenAI e ha fatto preoccupare le persone sul fatto che l’azienda fosse impegnata in iniziative di sicurezza a lungo termine.
Lo sviluppo dell’AGI, nel frattempo, sta accelerando più velocemente di quanto la società sia disposta a gestire in modo responsabile, afferma Brundage nella sua dichiarazione di addio. “Né OpenAI né nessun altro laboratorio di frontiera è pronto per l’AGI, e anche il mondo non è preparato”, ha scritto, aggiungendo che, sebbene la leadership di OpenAI possa essere d’accordo con la sua valutazione, lo spostamento dell’azienda verso la commercializzazione potrebbe mettere a repentaglio la sua missione incentrata sulla sicurezza. Secondo quanto riferito, OpenAI ha subito pressioni per monetizzare il proprio lavoro, passando dalla ricerca senza scopo di lucro a un modello a scopo di lucro e sacrificando considerazioni a lungo termine in nome della consegna di prodotti commerciali, ma per quanto i dati possono rappresentare,
L’avvertimento di Brundage non è isolato. Ciò avviene anche subito dopo la partenza di ricercatori chiave come Jan Leike e il co-fondatore Ilya Sutskever, aggiungendosi al crescente divario tra lo sviluppo dell’IA e la sicurezza. All’inizio di quest’anno, Leike ha sciolto il suo team di sicurezza perché faticava a raccogliere risorse sufficienti per ricerche cruciali, inclusa la carenza di potenza di calcolo. Questi attriti interni e preoccupazioni esterne indicano un divario significativo tra le aspirazioni dei laboratori di intelligenza artificiale e ciò che le macchine di governance globale del mondo sono pronte ad affrontare per quanto riguarda gli effetti sociali potenzialmente deleteri dell’AGI.
Naturalmente, l’ex ricercatore di OpenAI Suchir Balaji ha parlato di come la società abbia anteposto il profitto alla sicurezza e delle voci di molteplici azioni legali contro di lei che accusano OpenAI di violazione del copyright. La partenza di Balaji e la decisione di Brundage sottolineano un crescente disagio tra i ricercatori che credono che il potenziale commerciale dell’intelligenza artificiale superi i potenziali sforzi per mitigarne i rischi.
Quando ho sentito parlare per la prima volta di OpenAI LP, ero preoccupato, poiché lo status di organizzazione no-profit di OAI era parte di ciò che mi attraeva. Ma da allora mi è venuta l’idea per due ragioni: 1. Mentre approfondivo i dettagli, mi sono reso conto che erano stati fatti molti passi per garantire che l’organizzazione rimanesse incentrata sulla missione.
—Miles Brundage (@Miles_Brundage) 11 marzo 2019
Mentre OpenAI continua a perdere figure chiave dai suoi team di sicurezza, la più ampia comunità di intelligenza artificiale si trova ad affrontare una domanda urgente: perché stiamo correndo verso l’AGI così rapidamente senza renderci conto di alcune delle potenziali ramificazioni di quella corsa? La partenza di Brundage e gli avvertimenti più severi sulla sua capacità ci ricordano che il rischio con l’AGI non è solo quello di perdere la guerra. Tuttavia, lo è ancora di più il fatto che stiamo superando la capacità della società di controllarlo. Come per la sicurezza dell’IA, lo sviluppo dell’AGI dipenderà dalla voce di quei ricercatori chiave alternativi che scelgono di perseguire percorsi indipendenti e potrebbero persino sostenere una procedura meno aggressiva e responsabile per la crescita dell’AGI.
Il mondo attende di vedere se questi laboratori di frontiera potranno essere innovativi pur continuando ad assumersi la responsabilità di garantire che l’AGI lavori per la società piuttosto che contro di essa quando arriverà. I riflettori sono puntati su OpenAI e altri.
Credito immagine: Furkan Demirkaya/Ideogramma