OpenAI, il laboratorio di ricerca sull’intelligenza artificiale, ha recentemente rilasciato una dichiarazione in cui affronta i problemi di sicurezza che circondano i suoi prodotti. La dichiarazione arriva in risposta a diverse polemiche emerse nelle ultime settimane, tra cui un invito da parte dei leader del settore a sospendere lo sviluppo di modelli come GPT-4, un divieto di ChatGPT in Italia e un reclamo alla Federal Trade Commission sui rischi di pericolosa disinformazione, in particolare ai bambini.
L’impegno per la sicurezza di OpenAI mira a garantire al pubblico che i suoi prodotti sono sicuri pur ammettendo che c’è ancora spazio per miglioramenti. L’azienda ha sottolineato che lavora per garantire che la sicurezza sia integrata nei suoi sistemi a tutti i livelli e si impegna a collaborare con i responsabili politici e le parti interessate per creare un ecosistema di IA sicuro.
Tuttavia, la dichiarazione mancava di dettagli su come OpenAI intende mitigare il rischio, applicare le sue politiche o collaborare con le autorità di regolamentazione.
Elon Musk e Steve Wozniak hanno pubblicato una lettera aperta chiedendo una pausa di sei mesi
Un ibrido di confutazione-scuse che è stato rilasciato giovedì ha cercato sia di rassicurare il pubblico che i prodotti dell’azienda sono sicuri sia di riconoscere che c’è spazio per la crescita.
L’impegno per la sicurezza di OpenAI suona come una reazione schifosa a tutte le recenti controversie. Solo nell’ultima settimana, ChatGPT è stato completamente bandito in Italia, Elon Musk E Steve Wozniak hanno pubblicato una lettera aperta chiedendo una pausa di sei mesi nello sviluppo di modelli come GPT-4, ed è stata presentata una denuncia alla Federal Trade Commission sostenendo che ChatGPT comporta pericolosi rischi di disinformazione, in particolare per i bambini.
Oh, e c’era quel problema tecnico che permetteva a chiunque di vedere le comunicazioni in chat e le informazioni private degli utenti.
Secondo OpenAI, cerca di “garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli”. Prima di rilasciare GPT-4, OpenAI ha impiegato più di sei mesi “rigorosamente collaudo” e ha detto che sta esaminando alternative di verifica per implementare il suo requisito di età superiore ai 18 anni.
L’azienda ha sottolineato che non vende informazioni riservate e le utilizza solo per migliorare i modelli di intelligenza artificiale. Ha inoltre affermato di essere pronto a collaborare con i legislatori e a continuare a lavorare con le parti interessate dell’IA “per creare un ecosistema di intelligenza artificiale sicuro”.
OpenAI ha ammesso quasi a metà dell’impegno di sicurezza che la creazione di un LLM sicuro richiede un feedback del mondo reale. Afferma che l’apprendimento dal feedback pubblico renderà i modelli più sicuri e consentirà a OpenAI di monitorare l’uso improprio.
“L’uso nel mondo reale ci ha anche portato a sviluppare politiche sempre più sfumate contro comportamenti che rappresentano un vero rischio per le persone, consentendo al contempo le numerose applicazioni benefiche della nostra tecnologia”.
OpenAI ha offerto “dettagli sull’approccio alla sicurezza”, ma a parte l’impegno a indagare sulla verifica dell’età, la maggior parte della dichiarazione si legge come cliché standard. C’erano poche informazioni su come intende ridurre i rischi, attuare politiche o collaborare con le autorità.
OpenAI si diverte a creare prodotti AI in modo trasparente, ma l’annuncio offre pochi dettagli su ciò che intende fare ora che la sua intelligenza artificiale è allo stato brado.
Qual è la logica dietro OpenAI?
Secondo OpenAI, il loro modello ChatGPT, che è stato insegnato utilizzando il Reinforcement Learning from Human Feedback (RLHF) metodo di apprendimento automatico, può simulare il dialogo, rispondere a richieste di follow-up, confessare errori, contestare premesse errate e rifiutare richieste inappropriate.
Inizialmente, gli insegnanti di intelligenza artificiale umana fornivano al modello interazioni in cui agivano sia come cliente che come assistente di intelligenza artificiale. La versione di test pubblico del bot cerca di comprendere le domande e le risposte degli utenti con risposte approfondite che assomigliano al testo scritto dall’uomo in un formato conversazionale.
Se non hai ancora sperimentato ChatGPT, puoi farlo adesso facendo clic su questo.