A fine giugno, la musica è diventata l’ultima frontiera nella battaglia tra le aziende di intelligenza artificiale e coloro che si occupano di creare contenuti originali di qualsiasi tipo. Sono emerse segnalazioni che le principali etichette musicali, tra cui Sony Music Entertainments, Warner Records e Capitol Records, hanno intentato cause per violazione del copyright contro i servizi di generazione musicale Suno e Udio. Le società sostengono che il lavoro degli artisti è stato utilizzato per addestrare gli algoritmi di intelligenza artificiale, violando le leggi sulla proprietà intellettuale, e chiedono danni fino a $ 150.000 per canzone.
Queste accuse potrebbero essere una novità per l’industria musicale, ma le aziende di intelligenza artificiale ora impiegare eserciti di avvocati per gestire tali cause. L’emergere di ChatGPT alla fine del 2022 ha coinciso con l’ascesa degli strumenti di imaging generativo, portando a una reazione legale da parte di artisti, scrittori, organizzazioni di notizie e altri creativi, Compreso Getty Images, il New York Times e la comica e scrittrice Sarah Silverman. Anche gli sviluppatori open source hanno citato in giudizio GitHub per non aver rispettato i requisiti della licenza open source di GitHub consentendo che il codice venisse copiato e ripubblicato senza attribuzione.
Una regola per loro
Data la natura nascente della tecnologia e il fatto che tali casi stanno creando precedenti giudiziari che potrebbero durare a lungo, è probabile che le argomentazioni legali continuino a brontolare per un po’ di tempo a venire. Molto probabilmente, gran parte del tempo sarà dedicato a dibattere su punti noiosi riguardanti somiglianze e differenze precise tra un input creato dall’uomo e un output generato dall’intelligenza artificiale.
Tuttavia, dal punto di vista del consumatore, le aziende tecnologiche stanno lasciando sospese nell’aria questioni etiche molto più ampie. Queste aziende custodiscono gelosamente, ma comprensibilmente, i loro algoritmi come segreti commerciali sensibili dal punto di vista commerciale, ma sembrano non avere limiti quando si tratta di consumare e commercializzare proprietà intellettuali protette.
Man mano che le battaglie legali diventano più importanti, coinvolgendo più marchi e nomi influenti con seguaci fedeli, scegliere di collaborare con aziende di intelligenza artificiale diventa una decisione più etica. Qualsiasi utente di modelli di intelligenza artificiale in cui l’azienda è in disputa con i creativi sull’uso della propria proprietà intellettuale significa che l’utente è complice della violazione dei diritti dell’artista. Da una prospettiva legale, la misura in cui gli utenti potrebbero essere ritenuti responsabili per l’uso di un output generato dall’intelligenza artificiale rimane relativamente non testata. Se Joe Public usa l’intelligenza artificiale per creare immagini o testo che replicano così fedelmente un’opera originale che l’originale è chiaramente identificabile, Joe Public è responsabile dell’identificazione di una possibile violazione e del non utilizzo di tale opera per guadagno commerciale?
La regolamentazione non è una panacea
I regolatori stanno appena iniziando a confrontarsi con le risposte a tali domande. Mentre il pragmatismo di nuovi quadri giuridici come il Legge UE sull’intelligenza artificiale è stato elogiato, affronta l’IA dal punto di vista del rischio, non riuscendo ad affrontare il problema della proprietà intellettuale. Quindi, servono soluzioni. E la maggior parte delle cause legali si basa su richieste relativamente semplici da parte dei creatori di contenuti: un compenso e un’attribuzione adeguati per il loro lavoro, a cui hanno diritto in base alle leggi sulla proprietà intellettuale esistenti.
La trasparenza e la criptoeconomia della tecnologia blockchain offrono un modo elegante per affrontare il problema. Collegamento Droppuna soluzione sviluppata da droppGroup, consente agli operatori di modelli AI consolidati di tokenizzarli tramite la sua piattaforma. Ciò fornisce traccia, traccia e provenienza dell’attività del modello e crea un incentivo per i titolari di IP a offrire la loro IP alle aziende AI a condizioni commerciali, poiché saranno compensati automaticamente tramite il sistema di contratti intelligenti di droppLink.
La piattaforma opera a tre livelli nel processo di IA generativa. Un livello di Proof of Generation convalida l’autenticità dei dati di training e l’output dell’IA stessa, sfruttando una rete di validatori decentralizzata. Questa autenticazione alimenta il processo di compensazione del creatore per l’utilizzo del suo lavoro come input. Il livello di genesi dei dati automatizza la tokenizzazione dei dati di training dell’IA e crea un record on-chain immutabile di origine e utilizzo dei dati. Infine, ogni output viene tokenizzato come un asset digitale univoco e i pagamenti ai creatori vengono eseguiti automaticamente.
Le aziende tecnologiche che cercano di affrontare in modo proattivo le questioni etiche con lo scraping dei contenuti hanno l’opportunità di differenziarsi portando le loro attività on-chain utilizzando strumenti come droppLink. Fornire un equo compenso ai creatori, insieme alla trasparenza su come vengono utilizzati i contenuti e i dati, consente inoltre alle aziende di ridurre la propria responsabilità legale, dimostrando al contempo un impegno verso pratiche etiche nei confronti di regolatori e legislatori. Fornisce una base legale e morale più solida per lo sviluppo, la promozione e l’adozione futuri dell’IA.
Tutte le immagini sono generate da Eray Eliakik/Bing