Pasar al contenido principal

​​Errores pasados, lecciones futuras en la era de la IA Generativa

Image
Mujer
Fuente: Pexels

16 de Octubre de 2023

Cada nueva ola de avances tecnológicos ha representado nuevas oportunidades de cambio. La industria de los medios de información se ha quedado algunos pasos atrás en estas transformaciones, pero con la llegada de la inteligencia artificial generativa es hora de que aprendan de los errores y capitalicen lo que esta tiene para ofrecer. 

En un artículo para la INMA, Paula Felps habló con Sinead Boucher, propietaria del sitio web de noticias Stuff, durante la reciente Cumbre de Medios de Comunicación de Asia/Pacífico. Boucher destacó algunos de los errores de la industria mientras ofrecía consejos sobre cómo utilizar lo aprendido sobre esta nueva tecnología para tomar mejores decisiones en el futuro.

"Recuerdo la primera computadora que se introdujo en nuestra sala de redacción para Internet, y solo la bibliotecaria podía usarla", dijo. "En ese entonces, no veíamos cómo eso sería relevante para nuestros trabajos. Solo cuando comenzamos a poder buscar cosas entendimos el papel que las noticias tenían en la experiencia de búsqueda".

Después de eso llegó la era del móvil, lo que obligó a la industria a cambiar y adaptarse, seguido por lo que, según Boucher, es el cambio que ha tenido el mayor impacto en nuestra industria y en la sociedad en general: el auge de las redes y las plataformas sociales.

Según Boucher, a medida que la inteligencia artificial generativa transforma lo digital, la industria está al borde de otra ola masiva de cambios. Y ya no hay tiempo para sentarse y hablar sobre lo que se debe o no hacer.

"Lo que diferencia a la inteligencia artificial generativa de algunas de estas otras olas del pasado es la velocidad de los avances tecnológicos", dijo.

Desde la introducción de ChatGPT en noviembre de 2022, nuevas aplicaciones se están lanzando a diario. Según Boucher, Internet ya está lleno de contenido "insípido, repetitivo y mal escrito" generado por IA. A lo que Felps agrega que es eso lo que  facilita la propagación de desinformación y también coloca una mayor carga en la industria de los medios de información, pues los pone en un rol de verificadores de la verdad y restablecedores de la confianza entre los lectores.

Para lograrlo, la industria debe aprender del pasado.

"Creo que la mejor oportunidad que tenemos para tomar las decisiones correctas cuando miramos hacia el futuro es mirar atrás y ver lo que hicimos en la última ola de avances", explicó Boucher.

Felps comenta que uno de los primeros errores de la industria en el momento de la aparición de las redes sociales es que se tardó mucho en comprender la importancia de estas. Al mismo tiempo, la industria terminó adaptando su contenido a las plataformas de las empresas de tecnología en lugar de velar por sus propios intereses.

"Hicimos cosas como arrojar todo nuestro contenido en las plataformas sociales, darle una nueva forma, cambiar los titulares y el tipo de imágenes para que se adaptaran a cómo funcionaban esas plataformas, no necesariamente para adaptarse a lo que necesitaban nuestros negocios o lo que necesitaban nuestras audiencias", agregó Boucher. "Ayudamos a construir los negocios de esas plataformas a través del valor de nuestro contenido".

Esto causó que en lugar de fortalecer a las empresas de medios de comunicación que proporcionan el contenido, se entregara el poder a las plataformas sociales. Y, al mismo tiempo, la confianza pública en los medios se estaba desmoronando, pero la industria no se dio cuenta, ni actuó, dijo Boucher: "Creo que fuimos complacientes con el nivel de confianza pública en nosotros. Sentíamos que la habíamos tenido durante tanto tiempo que siempre la tendríamos y que la merecíamos. Y fuimos lentos en reaccionar a las implicaciones que tendrían, para nosotros y para la sociedad, los ataques de actores malintencionados".

Gestionar nuevas amenazas

Mirar la inteligencia artificial generativa a través del prisma de lo que la industria debería haber hecho con las redes sociales y las grandes tecnológicas proporciona un mejor camino a seguir.

"Cuando miramos ahora la inteligencia artificial generativa, creo que existe un riesgo real para nosotros como industria y para nuestra sociedad de que esto se convierta en inteligencia artificial degenerativa", dijo Boucher, agregando que las redes sociales han causado mucho daño, por ejemplo, las elecciones, la salud mental de los jóvenes y contribuido a la polarización.

Felps opina que si bien la inteligencia artificial generativa puede ayudar a las empresas a realizar sus trabajos de forma más eficiente y más barata, también permitirá que la desinformación se propague más rápido y parezca mucho más creíble.

"Ya estamos viendo una proliferación de sitios web de noticias no confiables o de dudosa credibilidad en Internet", comentó Boucher, citando un artículo de News Guard que contaba 347 sitios de noticias que se ven y se sienten como sitios de noticias legítimos, pero en realidad están llenos de contenido generado por IA que promueve narrativas falsas.

"Creo que hay un verdadero sentido de que todos los riesgos y daños que hemos visto en los últimos 10 años se están acelerando y existe el potencial de que empeoren mucho más".

Esto pone a la industria de las noticias en una posición para determinar cómo se utilizará la IA para generar periodismo. Los medios de comunicación deben encontrar formas de defender y proteger su contenido y propiedad intelectual, al tiempo que la adoptan, sugiere Felps.

"Necesitamos ser capaces de aprovechar el poder de esta tecnología para nosotros de maneras que nunca lo hicimos en la era de las redes sociales y las búsquedas", declaró Boucher. "El éxito de los productos de IA generativa producidos por las empresas de tecnología dependerá enormemente del periodismo de alta calidad y del contenido producido por nosotros y otras empresas. Y tendremos que encontrar formas de protegerlo".

Según Felps, algunas empresas ya están tomando medidas para proteger su contenido, o al menos buscando obtener alguna compensación si se utiliza. Boucher señaló el acuerdo que AP hizo con OpenAI para recibir pago por cualquier contenido que utilice para entrenar sus plataformas. Y otras empresas de medios de comunicación han escrito a las grandes plataformas tecnológicas, diciendo que no darán permiso para que los grandes modelos de lenguaje exploren su contenido y aprendan de él. Mientras tanto otros están tratando de tomar medidas para bloquear a los robots de rastrear su contenido.

En algunos países, las empresas de medios de comunicación están haciendo lobby para obtener regulaciones y legislación que rijan el uso de dicha tecnología.

"Creo que en la medida de lo posible, debemos unirnos como industria para colaborar en beneficio de la misma", afirmó Boucher. Eso incluye compartir información y tácticas sobre lo que funciona y asegurarse de que el valor de ese contenido vuelva a los creadores y editores. "Realmente tenemos que asegurarnos de que genere valor para el periodismo, porque me preocupa que esta pueda ser nuestra última oportunidad", agregó. "Si no lo hacemos bien en esta ola actual de interrupción, creo que esa ola nos arrasará".

¿Qué puede salir bien?

Aunque la industria de los medios de comunicación debe ser consciente de los peligros y de la necesidad de protegerse tanto a sí misma como a su propiedad intelectual, Boucher dijo que también es esencial considerar cómo aprovechar y utilizar la inteligencia artificial generativa. Sí, es fácil pensar en lo que podría salir mal, pero eso no debe hacerse a expensas de reconocer lo que podría salir bien y cómo lograrlo.

Para las organizaciones de noticias, eso significa proteger y defender su propiedad intelectual, aprovechar las herramientas y la tecnología disponibles, y luego crear modelos de negocio, productos y contenido que agreguen valor a la vida de las personas.

"Hemos oído mucho sobre cómo esta tecnología podría tener el potencial de abordar realmente el cambio climático, encontrar tratamientos médicos revolucionarios, brindar acceso a la educación y la atención médica a quienes de otra manera no la tendrían", concluyó Boucher. "Si esas son las cosas que podrían salir bien, debemos pensar en lo que se necesita para lograrlo y comenzar a incorporarlo en el trabajo y el periodismo que hacemos en nombre de nuestras comunidades".

Otras noticias

Image
06-inteligencia-artificial.jpeg

Inteligencia artificial no va a reemplazar totalmente a la humana

Tuomas Peltoniemi, presidente de TBWA en Asia y director de innovación TBWA, asegura que la inteligencia artificial y la humana pueden convivir y aportar para trabajar juntas, para ayudarse en muchos aspectos, entre ellos el marketing y la creatividad.

Image
fake-2355686_1920.jpeg

Foro ‘Noticias Falsas, el gran reto del periodismo actual’

El evento, que se realiza este miércoles, 1º. de noviembre de 2017, se transmite en vivo por Internet.