- OpenAI e Microsoft uniscono le forze per il progetto OpenAI Superalignment. OpenAI ha lanciato il programma di superallineamento, un progetto quadriennale per impedire che i rischi associati ai sistemi di intelligenza artificiale superintelligenti superino le capacità umane.
- Il programma mira a garantire che i sistemi di intelligenza artificiale siano in linea con i valori e gli scopi umani, mitigando i potenziali pericoli di un’apocalisse dell’IA.
- OpenAI sostiene attivamente la regolamentazione dell’IA e collabora con i leader del settore per gestire in modo proattivo i rischi senza precedenti posti dalla superintelligenza.
Uno sforzo significativo è stato compiuto da OpenAI, che lo scorso anno ha rilasciato una tecnologia di intelligenza artificiale generativa all’avanguardia che sta rivoluzionando il mondo, per prevenire la possibile estinzione dell’umanità che potrebbe essere causata da futuri progressi.
L’azienda è alla base del chatbot ChatGPT dal suono senziente e di sofisticati modelli di linguaggio macchina come GPT-4. Ha collaborato con Microsoft per integrare l’intelligenza artificiale nei prodotti di quest’ultima.
I dirigenti prevedono che ulteriori sviluppi nell’IA potrebbero portare alla “superintelligenza”, una frase usata per descrivere abilità che vanno oltre quelle dell’intelligenza artificiale generale (AGI), o la capacità dell’IA di imparare a eseguire qualsiasi lavoro intellettuale di cui gli esseri umani sono capaci.
Il programma OpenAI Superalignment mira a prevenire la superintelligenza canaglia
OpenAI svelato il suo nuovo programma di superallineamento OpenAI. Questo progetto quadriennale vedrà la creazione di un nuovo team per garantire che i sistemi di intelligenza artificiale molto più intelligenti degli umani obbediscano allo scopo umano, prevenendo lo scenario dell’apocalisse dell’IA che è stato rappresentato in diversi film e libri.
Poiché tutti i metodi di allineamento dell’IA esistenti dipendono dalla capacità degli esseri umani di supervisionare l’IA, cosa che gli esperti ritengono di non poter fare in modo affidabile quando si tratta di sistemi di intelligenza artificiale che sono molto più intelligenti dei loro supervisori, il post di oggi sostiene che non esistono metodi per guidare o controllare un potenziale IA superintelligente e impedire che diventi canaglia.
Il principale annuncio push viene dopo un post del 2022 che descriveva la ricerca di allineamento dell’azienda per aiutare le persone a tenere a freno la tecnologia canaglia. L’AGI, l’argomento di quel post, è stata ora soppiantata dalla superintelligenza.
La spinta al superallineamento di Open AI mira a creare un ricercatore di allineamento automatico con capacità quasi a livello umano, dopodiché la società sarà in grado di ridimensionare i suoi sforzi successivi e allineare iterativamente la superintelligenza utilizzando enormi quantità di calcolo.
L’azienda ha dichiarato: “Per allineare il primo ricercatore di allineamento automatizzato, dovremo 1) sviluppare un metodo di addestramento scalabile, 2) convalidare il modello risultante e 3) sottoporre a stress test l’intera pipeline di allineamento”, elaborando tali preoccupazioni come segue:
- Possiamo utilizzare i sistemi di intelligenza artificiale per aiutare la supervisione di altri sistemi di intelligenza artificiale per offrire un segnale di addestramento su attività che sono difficili da giudicare per gli esseri umani. Inoltre, vogliamo comprendere e avere una certa influenza su come i nostri modelli estendono la nostra supervisione a lavori che non siamo in grado di monitorare.
- Automatizziamo la ricerca di comportamenti problematici (robustezza) e interni problematici (interpretabilità automatizzata) per verificare che i nostri sistemi siano allineati.
- Ultimo ma non meno importante, possiamo testare l’intera pipeline addestrando intenzionalmente modelli disallineati e verificando che i nostri metodi identifichino accuratamente i peggiori disallineamenti possibili.
Oltre ad allocare il 20% delle sue risorse informatiche nei prossimi quattro anni, l’azienda ha affermato che sta formando un team di ricercatori e ingegneri di machine learning d’élite per affrontare il problema dell’allineamento della superintelligenza. Inoltre, sta assumendo personale aggiuntivo per lo sforzo, inclusi manager, scienziati e ingegneri di ricerca.
OpenAI sostiene la regolamentazione dell’IA con i leader del settore
La società ha dichiarato oggi di sperare che la questione possa essere risolta nonostante si tratti di un obiettivo molto ambizioso e non ci siano garanzie di successo. “Per affermare che il problema è stato risolto, la comunità dell’apprendimento automatico e della sicurezza deve essere persuasa dai dati e dal ragionamento.
Se non abbiamo molta fiducia nelle nostre risposte, speriamo che i nostri risultati aiutino noi e la comunità a pianificare di conseguenza. Abbiamo una vasta gamma di teorie che si sono dimostrate promettenti nelle prime prove e possiamo utilizzare i modelli del presente per indagare empiricamente su molti di questi problemi.
Su siti come Notizie sugli hacker, dove l’enorme spinta è attualmente in discussione, l’osservazione più popolare è: “Dal punto di vista di un profano quando si tratta di IA all’avanguardia, non posso fare a meno di essere un po’ scoraggiato da parte della copia. Per far apparire i rischi ancora maggiori e per far intendere che la tecnologia in fase di sviluppo è davvero all’avanguardia, sembra che si faccia di tutto per usare apposta un linguaggio esuberante”.
Iniziativa OpenAI Superalignment: (Credito immagine) Inaspettatamente, OpenAI, la società principalmente responsabile della recente ondata di avvisi di minacce esistenziali riguardanti l’IA, è stata esplicita nell’allertare il pubblico su questi rischi e nel sostenere la regolamentazione dell’IA con molti altri importanti leader e gruppi del settore.
La superintelligenza sarà più formidabile delle precedenti tecnologie che l’umanità ha affrontato in passato, secondo i dirigenti di OpenAI Sam Altman, Greg Brockman e Ilya Sutskever, che lo hanno dichiarato all’inizio di quest’anno. “Potremmo avere un futuro notevolmente più ricco, ma per arrivarci dobbiamo gestire il rischio. Non possiamo semplicemente rispondere quando il pericolo esistenziale è una possibilità.
Un esempio storico di una tecnologia dotata di questa qualità è l’energia nucleare, mentre la biologia sintetica ne è un altro. Dobbiamo anche ridurre le minacce poste dalle attuali tecnologie di intelligenza artificiale, ma la superintelligenza richiederà particolare attenzione e cooperazione.
Prima di partire, puoi leggere il nostro articolo su Humata AI.
Credito immagine in primo piano: openai
Source: Iniziativa OpenAI Superalignment: garantire uno sviluppo dell’IA sicuro e allineato