Google intensifica gli sforzi per migliorare la trasparenza sui contenuti generati o modificati dall'intelligenza artificiale: l'azienda, dopo essere entrata a far parte del Coalition for Content Provenance and Authenticity (C2PA), ha annunciato l'implementazione di un nuovo standard di filigrana digitale per identificare i contenuti creati o alterati dall'IA.
Questa mossa si inserisce in un contesto più ampio di collaborazione tra giganti tecnologici come Amazon, Meta e OpenAI, tutti impegnati nello sviluppo di tecnologie per il watermarking dei contenuti IA. Google ha contribuito allo sviluppo dell'ultima versione di Content Credentials, uno standard tecnico che protegge i metadati relativi alla creazione e alla modifica di un asset digitale.
La nuova versione di Content Credentials promette di essere più sicura e a prova di manomissione, grazie a metodi di convalida più rigorosi. Nei prossimi mesi, Google inizierà a incorporare questo standard in alcuni dei suoi prodotti principali.
Gli utenti potranno accedere a queste informazioni attraverso lo strumento "About this image", disponibile in Google Images, Lens e Circle to Search. L'azienda sta inoltre esplorando l'uso di C2PA per informare gli spettatori di YouTube quando un filmato è stato catturato con una telecamera.
Implementazione nei sistemi pubblicitari
Google prevede di utilizzare i metadati C2PA anche nei suoi sistemi pubblicitari, sebbene i dettagli su questa implementazione siano ancora scarsi. L'azienda ha dichiarato che utilizzerà i "segnali C2PA per informare l'applicazione di politiche chiave" in modo graduale.
L'efficacia di questo sistema dipenderà dall'adozione dello standard C2PA da parte di produttori di fotocamere e sviluppatori di strumenti IA. Tuttavia, rimane la sfida di prevenire la rimozione dei metadati dalle immagini, che potrebbe rendere più difficile per i sistemi di Google rilevare l'uso dell'IA.