Il programma Bug Bounty di OpenAI, lanciato martedì, ricompenserà gli utenti in base alla gravità dei difetti che rivelano, con premi a partire da $ 200 per vulnerabilità.
- OpenAI ha lanciato un programma di bug bounty per incoraggiare gli hacker etici, i ricercatori di sicurezza e gli appassionati di tecnologia a identificare e segnalare le vulnerabilità nei suoi servizi di intelligenza artificiale.
- Il programma bug bounty è in collaborazione con Bugcrowd e include ricompense che vanno da $ 200 A $ 20.000 in base alla gravità del problema.
- I partecipanti devono seguire regole e linee guida specifiche, incluso astenersi dal violare la privacy, interrompere i sistemi o distruggere i dati.
- Il programma bug bounty è fondamentale per la missione di OpenAI di creare un’IA sicura e avanzata e offre anche protezione, cooperazione, correzione e riconoscimento del porto sicuro per la ricerca sulla vulnerabilità condotta secondo la loro politica e regole di ingaggio.
Cos’è il programma Bug Bounty di OpenAI?
Per scoprire i difetti in ChatGPT, OpenAI fa appello al pubblico, stabilendo un “Programma Bug Bounty” per risarcire coloro che segnalano falle di sicurezza, vulnerabilità o altre preoccupazioni all’interno del sistema di intelligenza artificiale.
Il premio è accessibile a chiunque, dai veri ricercatori alla gente comune a cui piace sperimentare la tecnologia. I premi includono denaro, con “scoperte di bassa gravità” a partire da $ 200 e “scoperte eccezionali” fino a $ 20.000. Gli invii e i premi sono gestiti da Insettouna piattaforma di bug bounty.
Glitch hanno afflitto ChatGPT; il mese scorso, l’intero sito è caduto dopo che gli utenti hanno segnalato di aver visto nomi di chat a cui non erano partecipanti. Pochi giorni dopo, un utente di Twitter ha affermato di aver scoperto più di 80 plugin nascosti durante l’hacking di ChatGPT.
Stamattina stavo hackerando la nuova API ChatGPT e ho trovato qualcosa di super interessante: ci sono oltre 80 plugin segreti che possono essere rivelati rimuovendo un parametro specifico da una chiamata API.
I plugin segreti includono a "plugin DAN", "Plugin dei prezzi delle criptovalute"e molti altri. pic.twitter.com/Q6JO1VLz5x
— 𝚛𝚎𝚣𝟶 (@rez0__) 24 marzo 2023
Non tutti i difetti segnalati a OpenAI si tradurranno in un premio in denaro, come ad esempio jailbreak o convincere il modello a parlare o sembrare di dire qualcosa di sgradevole.
Quali sono le linee guida per il programma Bug Bounty di OpenAI?
Per aderire al programma, è necessario seguire alcune regole e linee guida:
- Le regole includono la segnalazione tempestiva delle vulnerabilità, non violare la privacy o interrompere i sistemiutilizzando il programma Bugcrowd per la comunicazione, mantenendo riservati i dettagli della vulnerabilità e testando solo i sistemi che rientrano nell’ambito.
- La società nega inoltre un porto sicuro per la divulgazione di vulnerabilità condotta sotto coercizione.
Il programma bug bounty di OpenAI non fornisce incentivi per i difetti del modello
La società ha detto nelle linee guida complete per la partecipazione che i problemi relativi alla sostanza dei suggerimenti e delle risposte del modello sono “rigorosamente fuori campo” e non sarebbe stato ricompensato. Jailbreak e convincere i modelli a dire o fare cose orribili sono esempi di difficoltà omesse.
Il jailbreak è il processo di modifica di un sistema per aggirare le sue restrizioni, che potrebbe comportare materiale non filtrato su ChatGPT. I jailbreaker hanno fatto sì che GPT-3.5 pronunciasse oscenità e parolacce all’inizio di quest’anno assegnandogli il compito di un diverso modello di intelligenza artificiale con la frase Do Anything Now o Dan.
“Mentre lavoriamo duramente per prevenire i rischi, non possiamo prevedere in che modo le persone utilizzeranno o abuseranno della nostra tecnologia quotidianamente nel mondo reale”, afferma la pagina, raccomandando ai clienti di compilare un modulo di feedback separato per esprimere i propri problemi.
In risposta a un post pubblicato da Alex Albert, un 22enne appassionato di jailbreak, Greg Brockman, co-fondatore e CEO di OpenAIha suggerito su Twitter a marzo di aver pianificato di lanciare il programma bug bounty di OpenAI o una rete di red teamers.
Il Red Teaming democratico è uno dei motivi per cui implementiamo questi modelli. Anticipare che nel tempo la posta in gioco aumenterà *molto* nel tempo e disporre di modelli resistenti a una grande pressione avversaria sarà fondamentale. Considerando anche l’avvio di un programma di taglie/rete di red-teamers! https://t.co/9QfmXQi9iM
— Greg Brockman (@gdb) 16 marzo 2023
La ragione
L’azione è arrivata solo pochi giorni dopo che ChatGPT è stato bandito in Italia per presunta violazione degli standard sulla privacy, spingendo le autorità di altre nazioni europee a condurre ulteriori ricerche sui servizi di intelligenza artificiale generativa.
ChatGPT ha sicuramente preso d’assalto il mondo negli ultimi mesi, superando un test di livello MBA a Whartonscrivendo un post per Techbriefly e persino fingendo di essere cieco per convincere un essere umano a risolvere un captcha.
Il rapido progresso e l’efficacia dell’IA hanno preoccupato alcuni esperti, tanto che 500 ingegneri di spicco (incluso Elon Musk) hanno chiesto lo stop dell’IA a sistemi più potenti, citando possibili pericoli in un futuro poco chiaro per la tecnologia.
Vuoi scoprire come ChatGPT è riuscita a superare un esame MBA? Per saperne di più vai su:
Source: Il programma Bug Bounty di OpenAI offre ricompense fino a $ 20.000