L’AI Act dell’Unione Europea rappresenta un passo pionieristico nella regolamentazione dell’intelligenza artificiale, segnando il primo quadro giuridico completo per l’IA a livello globale. Proposta dalla Commissione europea nell’aprile 2021, la legge è destinata a stabilire un precedente nello sviluppo etico e responsabile delle tecnologie di intelligenza artificiale. Tuttavia, questa legislazione innovativa ha suscitato un mix di elogi e critiche, riflettendo la natura complessa della governance dell’intelligenza artificiale.
La legge dell’UE sull’intelligenza artificiale, approvata oggi in una riunione, costituisce un quadro giuridico fondamentale per l’intelligenza artificiale, con l’obiettivo di stabilire standard globali per lo sviluppo e l’utilizzo dell’intelligenza artificiale. Gli obiettivi della legge sono ambiziosi e mirano all’uso responsabile ed etico dell’intelligenza artificiale. È lodata per la sua posizione proattiva nell’affrontare le sfide dell’intelligenza artificiale e nel creare un precedente per la regolamentazione globale.
Caratteristiche principali della legge dell’UE sull’intelligenza artificiale
Approccio basato sul rischio: Adottando un approccio basato sul rischio, il Legge sull’AI classifica le applicazioni AI in base al loro livello di rischio. Questa classificazione spazia dalle pratiche vietate (rischio molto elevato) alle attività a rischio minimo.
Regole orientate al business: Un aspetto degno di nota è la sua attenzione alle considerazioni economiche, bilanciando gli interessi commerciali con le preoccupazioni etiche. Si ritiene che la legge dia priorità alla dimensione economica rispetto a quella etica nello sviluppo dell’IA.
I vantaggi della legge sull’intelligenza artificiale
Quadro normativo completo: La legge rappresenta il primo quadro normativo internazionale per l’intelligenza artificiale, direttamente applicabile in tutti gli Stati membri dell’UE.
Incoraggiare l’innovazione e la sicurezza: I sostenitori sostengono che l’attenta valutazione del rischio e i principi di proporzionalità della legge raggiungono un equilibrio tra la promozione dell’innovazione e la protezione della società.
Contro e sfide
Potenziale soffocamento dell’innovazione: I critici sostengono che l’approccio restrittivo della legge potrebbe ostacolare l’innovazione dell’intelligenza artificiale e limitarne i potenziali benefici. Le preoccupazioni includono classificazioni rigorose dei rischi e requisiti di conformità gravosi, soprattutto per gli sviluppatori di intelligenza artificiale più piccoli.
Complessità per le imprese: Il regolamento impone una serie di obblighi sull’utilizzo dell’IA, che comprendono precisi requisiti documentali, controlli e verifiche, imponendo potenzialmente costi considerevoli, soprattutto per le PMI.
Dichiarazione di trasparenza e utilizzo: Le applicazioni di intelligenza artificiale ad alto rischio richiedono dichiarazioni di trasparenza obbligatorie, che potrebbero porre sfide in alcuni settori aziendali.
Dibattito internazionale e divergenza: La legge diverge in modo significativo dagli approcci adottati dai principali attori dell’intelligenza artificiale come gli Stati Uniti e la Cina, creando potenzialmente una divergenza nel panorama economico globale.
Considerazioni future e implementazione
La legge è ancora in fase di negoziazione tra il Consiglio europeo, il Parlamento e la Commissione. Le principali aree di dibattito includono l’uso dell’IA per la sorveglianza biometrica e la definizione di IA ad alto rischio. Le aziende, compresi i fornitori di modelli di base come OpenAI e DeepMind, devono affrontare sfide per allinearsi ai requisiti della legge, come la rendicontazione non uniforme del consumo di energia e la divulgazione inadeguata della mitigazione del rischio.
Il progetto di legge attualmente non tiene conto dell’uso del modello in diversi contesti e non affronta aspetti della catena di fornitura dell’IA, come la costruzione di set di dati e i metodi di formazione.
Le aziende hanno bisogno di maggiore chiarezza in aree quali la trasparenza, l’accesso ai modelli e le valutazioni d’impatto per conformarsi alle normative della legge.
L’approvazione della legge UE potrebbe influenzare le normative statunitensi sull’IA, con le aziende riluttanti ad adattarsi a due diversi insiemi di regole per mercati diversi. È necessario un allineamento degli standard di regolamentazione globale dell’IA.
Source: L’AI Act dell’Unione Europea: pro e contro per il futuro