Pasar al contenido principal

Más transparencia: el antídoto a los contenidos producidos por la inteligencia artificial

Image
Código
Fuente: Pexels

06 de Marzo de 2023

No fue sorpresa para los expertos, pero los primeros pasos en la masificación de la Inteligencia Artificial (IA) en los últimos meses con ChatGPT lograron instalar en la opinión pública en 2023 una certidumbre: de ahora en adelante, va a ser cada vez más complicado distinguir entre una información real, y una sintética (inventada, falsificada, artificialmente generada).

Como resultado, todos en la esfera pública, ya sean educadores, expertos en defensa civil y seguridad nacional, especialistas en defensa de las marcas corporativas, responsables de medios de comunicación y redes sociales o periodistas, tienen entre sus prioridades determinar los potenciales impactos de IA, y definir cómo responder a las amenazas inherentes.

A pesar de los titulares actuales sobre IA, el tema no es nuevo. En 2019, Danielle Keats Citron, una abogada especialista en temas de IA, habló en una sesión del Congreso de EEUU sobre El Desafío a la Seguridad Nacional proveniente de la inteligencia artificial, los contenidos manipulados y los deep fakes o contenidos sintéticos (audios o videos que imitan la apariencia o sonido de una persona).

“Los autores de deep fakes cuentan con que cada uno de nosotros va a respetar lo que nos dicen nuestros ojos y nuestros oídos, y, en eso reside el peligro”, dijo. En la misma sesión, Jack Clark, director de política de OpenAI (dueño de ChatGPT), alertó que el problema de los contenidos sintéticos se iba a agravar. “La sociedad tendrá que internalizar la noción de que los medios digitales son por defecto poco fiables, a menos que el contenido esté acompañado por algún indicador de autenticidad o verificado por alguna fuente fidedigna”, dijo Clark.

 

Content Authenticity Initiative (CAI)

Desde 2019, la Iniciativa de Autenticidad de Contenidos (CAI por sus siglas en inglés) está en campaña para dar respuesta a esa necesidad, impulsando la adopción a nivel mundial de un estándar de verificación de la procedencia, de fuente abierta, de los contenidos digitales.

En 2022, América Latina se sumó al esfuerzo a través de unos 30 sitios de internet y otras organizaciones de participar en la comunidad CAI, que cerró el año con casi 900 miembros en todo el mundo. Entre los involucrados están la Asociación Colombiana de Medios de Información (AMI); el proyecto multinacional Infobae, El Tiempo de Bogotá; BioBioChile, de Concepción, Chile; la Associação Nacional de Jornais (ANJ) de Brasil; La Voz de Córdoba, Argentina; Estadão de San Pablo, Brasil; Rede Gazeta, de Vitória, Brasil; El Mostrador, de Santiago, Chile; Pagina 12, de Buenos Aires, Argentina; El Día, de La Plata, Argentina, entre otros.

El esfuerzo también conto con el apoyo de la Sociedad Interamericana de Prensa (SIP), la Asociación de Entidades Periodísticas Argentina (ADEPA) y el Consejo de la Prensa Peruana (CPP). Otros 70 medios y organizaciones de la región participaron en sesiones para tener más información sobre la iniciativa, previo a su eventual incorporación.


La procedencia de los archivos digitales

Procedencia es un concepto clave para CAI. Lo que propone es que cada archivo digital tenga información de origen, y de trazabilidad en el tiempo, mostrando los cambios entre un archivo publicado, y el archivo original. Por ejemplo, una fotografía debe llevar la información sobre donde, cuando y por quién fue tomada, y luego mostrar los cambios realizados al archivo captado originalmente.

En 2023, Adobe y otras empresas incluyendo la BBC, CBC-Radio Canada, OpenAI, Witness y Tik Tok, participaron en el lanzamiento de la guía  para el uso responsable del contenido sintético, del Consorcio sobre Inteligencia Artificial (PAI, por sus siglas en inglés). La guía ofrece un marco para desarrollar, crear y compartir, en forma responsable, contenido sintético, o sea, el contenido audiovisual generado o modificado usando IA.

Andy Parsons, director general de CAI, dijo que el concepto de transparencia es central en el marco propuesto para los contenidos sintéticos, y ese marco hace reiteradas referencias a “la aplicación de procedencia criptográfica (como el estándar C2PA)”. C2PA es la Coalición por la Procedencia y Autenticidad de Contenido, el brazo tecnológico de CAI, que hizo el desarrollo de las especificaciones técnicas para CAI.

Con relación a las informaciones sintéticas, ya hay propuestas legislativas en estudio para obligar a los creadores de estos contenidos a incluir un aviso de procedencia que informe mínimamente al público que la información fue creada por IA o algo similar. Toda esta información estaría encriptada, para asegurar su confiabilidad.

“Abordar el tema de autenticidad del contenido en escala es una misión de largo plazo, interdisciplinario y colaborativo”, dijo Parsons. “Es cada vez más necesario dado la popularidad de la IA”.


Los avances de CAI

La Iniciativa de Autenticidad de Contenido fue lanzada originalmente por Adobe, The New York Times y Twitter, pero ya cuenta con el apoyo de marcas mundiales emblemáticas del periodismo, de tecnología y de la sociedad civil como la BBC, Washington Post, Axel Springer, Microsoft, Samsung, Canon, Nikon, Witness, Reuters, AP, EFE, AFP y The Wall Street Journal.

En 2022, CAI logró importantes avances. A principios del año, mediante su brazo tecnológico C2PA, hizo pública la versión 1.1 del estándar de fuente abierta, y luego hizo disponible tres soluciones para desplegar las credenciales de autenticidad CAI en sitios de internet, plataformas, entre otros. 

Al mismo tiempo, dos de los más importantes fabricantes de cámaras, anunciaron que van a incluir la tecnología de CAI en productos principales: el Z9 de Nikon, el más importante de los cámaras sin espejo de la industria, y el icónico M11 Rangefinder de Leica.

Mientras tanto, El Código de Acción sobre Desinformación fue aprobado por la Comisión Europea, siendo el primer código internacional para establecer compromisos sobre la procedencia y el estándar CAI desarrollado por C2PA. El código debe ser acogido por sus signatarios, incluyendo Adobe, Google, Meta, Microsoft, TikTok y otros.

Un proyecto de ley fue presentado en el Senado de EEUU para crear una Fuerza Nacional de Tareas sobre deep fakes y procedencia digital en el ámbito del departamento de Seguridad Nacional, en coordinación con la oficina de ciencia y tecnología de la Casa Blanca. A la vez, un proyecto de ley impulsado por Adobe, fue introducido en California para establecer un Grupo de Trabajo sobre deep fakes, para estudiar los riesgos y el impacto de contenidos que han sufrido alteraciones digitales, y para explorar la adopción de la procedencia digital como solución para identificar los deep fakes.

 

Los objetivos para 2023

En 2023, La Iniciativa de Autenticidad de Contenido (CAI) busca ampliar su comunidad de socios
en América Latina. “El objetivo principal de la iniciativa es que el público tenga la información necesaria para sacar sus propias conclusiones sobre la naturaleza y autenticidad de una fotografía, un video, una grabación o cualquier documento”, dijo Santiago Lyon, director de Promoción y Educación de CAI.

“Pero a la vez, queremos llegar al punto en que la falta de credenciales de procedencia sea señal de alerta al público”, dijo. “O sea, que cada uno sepa que es imprescindible siempre pedir información sobre el origen de los contenidos digitales para evaluar su autenticidad, o credibilidad”.


Los que quieren sumarse al esfuerzo pueden dirigirse a este enlace o enviar un correo a mateo.heras@contentauthenticity.org o John.reichertz@contentauthenticity.org.