Reddit ha apportato un grande cambiamento questa settimana per proteggere i suoi contenuti dall’acquisizione senza autorizzazione. Hanno aggiornato qualcosa chiamato file robots.txt, che dice ai programmi informatici (come quelli usati dai motori di ricerca) se possono guardare un sito web. Questo file è stato importante per consentire ai motori di ricerca di mostrarti siti Web quando cerchi qualcosa.
Ma ora, con l’avvento dell’intelligenza artificiale, alcune aziende stanno prendendo contenuti da siti web come Reddit per addestrare i propri sistemi di intelligenza artificiale senza chiedere o dare credito ai creatori originali. Questo è diventato un grosso problema perché non rispetta le persone che hanno realizzato il contenuto o i siti web che lo ospitano.
Cosa sta facendo Reddit?
L’aggiornamento di Reddit al file robots.txt è mirato a controllare come viene utilizzato il suo contenuto. Limiteranno e bloccheranno anche programmi per computer e bot sconosciuti dall’accesso al loro sito se non rispettano le regole di Reddit o non hanno il permesso di utilizzare il contenuto.
Reddit afferma che questi cambiamenti non influenzeranno la maggior parte delle persone o delle buone organizzazioni come ricercatori o gruppi che salvano la cronologia di Internet (come Internet Archive). Invece, stanno cercando di impedire alle aziende di intelligenza artificiale di utilizzare i contenuti di Reddit senza permesso. Tuttavia, questi programmi di intelligenza artificiale potrebbero comunque ignorare le regole di Reddit.
Recenti indagini e risposte
L’annuncio fa seguito a un rapporto di Wired, che ha scoperto che una società di ricerca basata sull’intelligenza artificiale chiamata Perplexity stava prelevando contenuti da siti Web, anche se le era stato detto di non farlo nel file robots.txt. Il CEO di Perplexity ha sostenuto che queste regole non sono requisiti legali, innescando un dibattito su come i siti web possano proteggere i loro contenuti.
I dati di Reddit appartengono a Google, per ora
Le nuove regole di Reddit non influenzeranno le aziende che hanno già accordi con loro. Ad esempio, Reddit ha un accordo da 60 milioni di dollari con Google, consentendo a Google di utilizzare i dati di Reddit per i suoi progetti di intelligenza artificiale. Ciò dimostra che Reddit è attento a chi può utilizzare i suoi dati e vuole assicurarsi che siano partner fidati.
“Tutti coloro che utilizzano i contenuti di Reddit devono seguire le nostre regole per proteggere gli utenti di Reddit”, ha affermato Reddit in un post sul blog. “Scegliamo attentamente con chi lavoriamo e con chi ci affidiamo per l’accesso ai contenuti Reddit.”
Guardando avanti
Questo cambiamento da parte di Reddit fa parte del loro sforzo di controllare come vengono utilizzati i loro dati, soprattutto da parte delle aziende per motivi commerciali. Mostra una tendenza crescente tra i siti Web a proteggere i propri contenuti nell’era dell’intelligenza artificiale e dei big data.
La mossa di Reddit invia un messaggio chiaro: sebbene l’intelligenza artificiale abbia un grande potenziale, rispettare la provenienza dei dati e ottenere l’autorizzazione è davvero importante. Man mano che Internet cambia, le azioni di Reddit potrebbero influenzare il modo in cui altri siti Web proteggono i propri contenuti e i diritti degli utenti.
Tutte le immagini sono generate da Eray Eliaçık/Bing
Source: Reddit ti farà pagare per i suoi dati