Google divulgherà le immagini create o modificate dall’intelligenza artificiale nei risultati di ricerca. Il colosso della tecnologia prevede di fornire maggiore trasparenza aggiungendo etichette alle immagini create o modificate dall’IA.
Il cambiamento arriva dopo che Google ha stretto una partnership con importanti aziende nella Coalition for Content Provenance and Authenticity (C2PA), che mira a combattere la diffusione di informazioni fuorvianti online. Diamo un’occhiata ai dettagli del piano di Google per segnalare i contenuti generati dall’intelligenza artificiale e alle domande che lo circondano.
La caccia all’intelligenza artificiale da parte di Google è solo un evento collaterale?
Nei prossimi mesi, Google inizierà a taggare i dati generati e modificati dall’intelligenza artificiale immagini nei risultati di ricercaCiò verrà fatto utilizzando i metadati del Credenziali di contenuto standard, che include informazioni come quando, dove e come è stata creata l’immagine. Gli utenti saranno in grado di vedere questo tag tramite la funzionalità “Informazioni su questa immagine” di Google, a cui si può accedere cliccando sui tre puntini sopra un’immagine nei risultati di ricerca.
L’idea alla base di questa mossa è quella di dare agli utenti un modo per rintracciare la fonte delle immagini e renderle più facili da individuare i contenuti generati dall’intelligenza artificiale. La mossa arriva dopo che Google si è unita ad altre aziende tecnologiche come Amazon, Adobe e Microsoft nello sviluppo delle ultime linee guida Content Credentials. Insieme, queste aziende sperano di aumentare la trasparenza e ridurre la diffusione di immagini false o fuorvianti.
Ma mentre l’iniziativa di Google è un passo nella giusta direzione, vale la pena notare che l’etichetta non sarà immediatamente ovvia. Gli utenti dovranno cercare attivamente le informazioni cliccando sulla sezione “Informazioni su questa immagine”, il che potrebbe rendere la funzionalità meno efficace di quanto alcuni potrebbero aspettarsi.
In che modo gli utenti accederanno alle informazioni fornite dall’intelligenza artificiale?
La nuova funzione è disponibile in Google Lens e nella funzionalità “Cerchia per cercare” di Android e ora indicherà se un’immagine è stata generata o modificata tramite intelligenza artificiale. Non visualizzare direttamente l’etichetta potrebbe causare una mancanza di consapevolezza dell’esistenza di questo strumento tra molti utenti. Poiché sono coinvolti ulteriori passaggi, alcuni individui potrebbero non essere mai in grado di confermare se un’immagine è stata generata dall’IA a meno che non abbiano già familiarità con la funzionalità. Anche se gli individui ne sono consapevoli, il processo potrebbe comunque essere difficile, in particolare se prevedono che le immagini prodotte dall’IA siano contrassegnate più chiaramente.
Nonostante questo vincolo, la partnership di Google con C2PA potrebbe rivelarsi preziosa, poiché lo standard Content Credentials offre una struttura più ampia per tracciare l’origine dei contenuti digitali. Tuttavia, questo standard non è stato adottato da tutti gli sviluppatori di IA. Alcune organizzazioni, come Laboratori della Foresta Nerahanno scelto di non includerlo, complicando potenzialmente gli sforzi per tracciare la fonte delle immagini generate da modelli specifici.
Dubbi sull’efficacia: Google sta facendo abbastanza?
C’è anche un problema più grande: le immagini generate dall’intelligenza artificiale stanno diventando sempre più difficili da rilevare. Un’Università di La città di Waterloo studio ha scoperto che il 39% delle persone non riesce a distinguere tra immagini generate dall’IA e reali. Se questa tendenza continua, il sistema di etichettatura di Google potrebbe non essere sufficiente per aiutare gli utenti a identificare con sicurezza i contenuti generati dall’IA.
Inoltre, altre aziende tecnologiche non stanno dando il buon esempio. Meta, ad esempio, ha recentemente spostato le informazioni di tagging in una posizione meno visibile nei post. Ciò solleva la questione se i giganti della tecnologia siano davvero impegnati a rendere più trasparenti i contenuti generati dall’intelligenza artificiale o se stiano solo adottando misure minime.
Poche telecamere, come la Leica M-11P E La Nikon Z9dotato di built-in Credenziali di contenuto. Ciò significa che a meno che fotografi e sviluppatori non scelgano di usare questi strumenti, il sistema non sarà efficace come potrebbe essere. La trasparenza nei contenuti generati dall’intelligenza artificiale si basa in gran parte sulla collaborazione intersettoriale e finora non tutti sembrano essere ugualmente coinvolti.
Allo stesso tempo, l’aumento delle immagini generate dall’intelligenza artificiale ha sollevato nuove preoccupazioni sulla disinformazione. Dai deepfake alle foto di nudo generate dall’intelligenza artificiale, il potenziale di danno è chiaro. Mentre il nuovo sistema di etichettatura di Google non risolverà tutti questi problemi, è un piccolo passo verso la riduzione della diffusione di contenuti fuorvianti online.
Crediti immagine: Furkan Demirkaya / Ideogramma AI
Source: Il tag immagine AI di Google sarà facile da individuare?