Con una mossa sorprendente, OpenAI ha tranquillamente rivisto la sua politica di utilizzo, eliminando il linguaggio esplicito che vietava l’uso della sua tecnologia per scopi militari. La modifica, apportata il 10 gennaio 2024, rimuove dalla politica il precedente divieto di “sviluppo di armi” e “militare e guerra”. Questo cambiamento sostanziale ha suscitato preoccupazioni sulle potenziali implicazioni del potente strumento di OpenAI, ChatGPT, impiegato in applicazioni militari.
La redazione politica
La modifica, parte di una più ampia riscrittura delle politiche mirata alla chiarezza e alla leggibilità, ha attirato l’attenzione per il suo impatto sull’uso consentito della tecnologia OpenAI. La nuova politica mantiene un’ingiunzione generale contro l’utilizzo del servizio per danneggiare se stessi o gli altri, con esempi come lo sviluppo o l’uso di armi. Tuttavia, il divieto specifico sulle applicazioni militari e di guerra è scomparso.
La prospettiva di OpenAI
Il portavoce di OpenAI Niko Felix ha spiegato che l’obiettivo era stabilire principi universali facili da ricordare e applicare a livello globale. Sottolineando principi come “Non danneggiare gli altri”, l’azienda ritiene che queste linee guida siano ampie ma facilmente comprensibili. Felix si è astenuto dal dichiarare esplicitamente se il vago divieto di “danno” includa tutti gli usi militari, ma ha sottolineato il divieto di utilizzo della tecnologia per sviluppare, usare armi, ferire altri o impegnarsi in attività non autorizzate che violano la sicurezza.
Le preoccupazioni degli esperti
Heidy Khlaaf, direttore tecnico di Trail of Bits, ha espresso preoccupazione per il fatto che la nuova politica sembra dare priorità alla legalità rispetto alla sicurezza. Ha evidenziato i potenziali rischi associati all’uso dell’intelligenza artificiale nelle applicazioni militari, citando casi di pregiudizi e allucinazioni all’interno dei Large Language Models (LLM). La preoccupazione è che operazioni imprecise e parziali possano portare a un aumento dei danni e delle vittime civili.
Applicazione e conseguenze nel mondo reale:
Le conseguenze nel mondo reale del cambiamento politico di OpenAI rimangono poco chiare. In precedenza OpenAI non si era impegnata a far rispettare il divieto di applicazioni militari e di guerra. Nonostante l’attuale incapacità di ChatGPT di causare danni diretti, gli esperti sostengono che il suo impiego in contesti militari, anche non violenti, potrebbe contribuire indirettamente a un’istituzione incentrata sulla letalità.
Possibili motivazioni e collaborazioni
Alcuni esperti suggeriscono che OpenAI potrebbe silenziosamente allentare la sua posizione contro il coinvolgimento militare. Il passaggio dal divieto esplicito di “militare e guerra” al concentrarsi sulle “armi” potrebbe creare spazio per supportare le infrastrutture operative senza impegnarsi direttamente nello sviluppo di armi. La stretta collaborazione di OpenAI con Microsoft, un importante appaltatore della difesa, solleva interrogativi sull’influenza di tali rapporti sulle politiche dell’azienda.
Interesse militare per l’intelligenza artificiale
I cambiamenti politici arrivano in un momento in cui le forze armate a livello globale sono ansiose di incorporare tecniche di apprendimento automatico. Il Pentagono degli Stati Uniti sta esplorando provvisoriamente l’uso di ChatGPT e altri modelli di linguaggi di grandi dimensioni per ottenere un vantaggio strategico. Pur riconoscendo le preoccupazioni sull’accuratezza e sui rischi per la sicurezza, l’esercito rimane entusiasta dell’adozione di strumenti di intelligenza artificiale.
La revisione della politica di utilizzo di OpenAI, in particolare la rimozione di divieti espliciti sulle applicazioni militari, solleva importanti questioni sull’uso etico di modelli linguistici avanzati. Poiché l’intersezione tra l’intelligenza artificiale e gli interessi militari continua ad evolversi, diventa fondamentale trovare un equilibrio tra innovazione tecnologica e considerazioni etiche per prevenire potenziali danni e abusi. Le implicazioni di questi cambiamenti politici alimenteranno senza dubbio le discussioni in corso sull’impiego responsabile di potenti tecnologie di intelligenza artificiale in vari settori.
Credito immagine in primo piano: Specna Arms/Unsplash
Source: Ora puoi utilizzare ChatGPT per scopi militari