Un gruppo di esperti di intelligenza artificiale e dirigenti tecnologici, tra cui Elon Musk e il co-fondatore di Apple Steve Wozniak, hanno pubblicato un lettera aperta esortando i principali laboratori di intelligenza artificiale a sospendere lo sviluppo di sistemi di intelligenza artificiale più avanzati di GPT-4. La lettera aperta, pubblicata martedì dal Future of Life Institute senza scopo di lucro, ha circa 1.000 firmatari e cita “rischi profondi” per la società umana come motivo dell’invito all’azione.
La lettera chiede l’immediata sospensione per almeno sei mesi della formazione dei sistemi, che deve essere pubblica, verificabile e coinvolgere tutti gli attori pubblici. “I sistemi di intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale”, inizia la lettera.
Gli esperti di intelligenza artificiale lanciano l’allarme sui “rischi profondi” per la società umana
Il gruppo sostiene che i sistemi avanzati di intelligenza artificiale potrebbero rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbero essere pianificati e gestiti con cure e risorse adeguate. Tuttavia, affermano che questo livello di pianificazione e gestione non sta accadendo, nonostante gli ultimi mesi abbiano visto i laboratori di intelligenza artificiale bloccati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire. , prevedere o controllare in modo affidabile.
La lettera aperta arriva solo un paio di settimane dopo il debutto pubblico di GPT-4 di OpenAI, il modello di linguaggio di grandi dimensioni che alimenta la versione premium del popolarissimo chatbot ChatGPT. Il nuovo GPT-4 può gestire attività più complesse e produrre risultati più sfumati rispetto alle versioni precedenti ed è anche meno soggetto ai difetti delle versioni precedenti, secondo OpenAI.
Per svolgere il proprio lavoro, sistemi come GPT-4 devono essere addestrati su grandi quantità di dati a cui attingere per rispondere a domande ed eseguire altre attività. ChatGPT, che è entrato in scena a novembre, ha una capacità simile a quella umana di scrivere e-mail di lavoro, pianificare itinerari di viaggio, produrre codice per computer ed eseguire bene test come l’esame di abilitazione.
Dall’inizio dell’anno, aziende da Google e Microsoft ad Adobe, Snapchat e Grammarly hanno tutte annunciato servizi che sfruttano queste capacità di intelligenza artificiale generativa.
Tuttavia, la ricerca di OpenAI ha dimostrato che ci sono dei rischi associati a queste abilità di intelligenza artificiale. I sistemi di intelligenza artificiale generativa possono citare fonti inaffidabili o, come ha osservato OpenAI, “aumentare le sfide per la sicurezza intraprendendo azioni dannose o non intenzionali, aumentando le capacità dei cattivi attori che froderebbero, fuorviano o abusano degli altri”.
Il gruppo dietro la lettera aperta sostiene che le aziende si stanno affrettando a lanciare prodotti senza adeguate salvaguardie o senza nemmeno comprendere le implicazioni. Gli esperti di intelligenza artificiale sono spaventati da dove potrebbe andare tutto questo. La lettera dice: “Purtroppo, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono stati bloccati in una corsa fuori controllo per sviluppare e distribuire menti digitali sempre più potenti che nessuno, nemmeno loro creatori: possono comprendere, prevedere o controllare in modo affidabile.
I firmatari della lettera ritengono che la società debba fare un passo indietro e mettere in pausa lo sviluppo mentre valutano i rischi e mettono in atto misure di salvaguardia. Chiedono trasparenza, discussione pubblica e impegno pubblico sugli sviluppi dell’IA, in modo che tutti possano avere voce in capitolo nel futuro dell’IA.
La lettera aperta ha acceso il dibattito tra gli esperti di IA, con alcuni che sostengono che sia necessaria una pausa per garantire che l’IA sia sviluppata in modo sicuro ed etico. Altri, tuttavia, temono che una pausa rallenterebbe i progressi e darebbe ad altri paesi un vantaggio nello sviluppo dell’IA.
Nonostante il dibattito, è chiaro che l’IA sta avanzando a un ritmo rapido e ha il potenziale per cambiare le nostre vite in modi profondi. Spetta alla società nel suo complesso garantire che questo cambiamento sia gestito in modo responsabile ed etico.
Source: Stop GPT-4: Musk e Woz chiedono la rottura dell’IA