Pasar al contenido principal

Medios, algoritmos y democracia: la mirada crítica de Harari sobre la IA

Image
Imagen
Fuente: Freepik

05 de Mayo de 2025

En una nota para The Japan News, se abordó el impacto que la inteligencia artificial (IA) está teniendo sobre los medios de información, las redes sociales y la democracia, a través de una conversación entre el historiador israelí Yuval Noah Harari y Toshikazu Yamaguchi, presidente del conglomerado japonés The Yomiuri Shimbun Holdings. La charla, moderada por el periodista Tetsuya Tsuruhara, tuvo lugar con motivo del lanzamiento en Japón del nuevo libro de Harari, Interconnection: A brief history of information networks – from the Stone Age to artificial intelligence (Nexus, en inglés), una obra que advierte sobre los riesgos que plantea esta tecnología.

Yuval Noah Harari: La IA es peligrosa porque representa un factor desconocido. Las personas tienden a pensar en la IA como si fuera una herramienta más, como tantas otras que hemos inventado... pero esto es algo completamente distinto. Puede tomar decisiones por sí misma, generar ideas nuevas e incluso cambiar y aprender por su cuenta.

Predecir lo que hará una inteligencia inorgánica es mucho más difícil.

Tetsuya Tsuruhara: ¿Cuáles son esas amenazas?

Harari: Hay muchos tipos de burocracias en el mundo: gubernamentales, militares, académicas, empresariales... Parte del problema para entender el peligro de la IA es que, en muchas películas y libros de ciencia ficción, se retrata de forma equivocada. Se habla de una rebelión robótica en la que las máquinas se levantan y atacan a los humanos. Eso no va a ocurrir. Lo más probable es que las inteligencias artificiales tomen el control de las burocracias que ya dirigen el mundo.

Hoy es habitual que una IA decida si se te concede un préstamo. En el ámbito militar, puede determinar qué objetivos deben ser bombardeados. En los medios de información, cada vez más editores humanos están siendo reemplazados por sistemas impulsados por IA. Muchas personas están perdiendo sus empleos, pero eso no implica que la burocracia desaparezca: está siendo asumida por algoritmos que gestionan los grandes sistemas globales.

El sistema financiero también está cada vez más automatizado. ¿Qué ocurriría si se vuelve tan complejo que solo las IAs logran entenderlo? Serían capaces de crear instrumentos y estrategias demasiado avanzadas para que el cerebro humano las comprenda. En caso de una crisis financiera, solo ellas sabrían qué está pasando. Podríamos intentar regular esta situación mediante leyes, pero actualmente hay administraciones, como la de Estados Unidos en años recientes, que han optado por desregular los mercados, allanando así el camino para que las IAs controlen completamente el sistema financiero.

La humanidad solo podrá mantener bajo control a la IA si se logra algún tipo de acuerdo internacional. Pero políticas como las de la administración Trump se oponen a cualquier regulación o tratado global. Así es muy difícil imaginar un escenario donde podamos controlar esta tecnología.

Toshikazu Yamaguchi: Estados Unidos no parece estar dispuesto a limitar la IA, sobre todo por motivos de competencia tecnológica y militar.

Harari: Uno de los grandes problemas que enfrentan casi todas las democracias, incluida la estadounidense, es la avalancha de noticias falsas, teorías conspirativas y desinformación que genera desconfianza y polarización social. Las grandes redes sociales argumentan que no se pueden frenar estos contenidos porque eso atentaría contra la libertad de expresión. Pero no se trata realmente de eso. El problema está en los algoritmos que difunden deliberadamente este tipo de información. Hay que limitar el poder de los algoritmos. Esto no tiene que ver con la libertad de expresión, porque los algoritmos no tienen ese derecho.

Yamaguchi: ¿Cree que las empresas deberían asumir responsabilidades legales por lo que hacen los algoritmos, por ejemplo, prohibiendo los bots que simulan ser humanos?

Harari: Si una historia es propagada por un bot, tengo derecho a saber que no proviene de una persona real. Si alguien publica una mentira, debe hacerse responsable. Lo mismo debería aplicarse a las redes sociales. Si una plataforma decide difundir una historia que es falsa o conspirativa, tiene que responder por ello, tal como lo hacían los periódicos o los canales de televisión tradicionales.

Yamaguchi: En The Yomiuri Shimbun corregimos información incorrecta. Creemos que rectificar errores es clave para ganarnos la confianza de nuestros lectores.

Harari: Creo que el modelo de negocio de la mayoría de las redes sociales es otro. Ellas no buscan la confianza, buscan la interacción. Y la forma más fácil de captar la atención es apelar a emociones como la ira o la codicia.

Yamaguchi: Sin embargo, las redes sociales están ocupando el lugar de los periódicos como guardianes de la información. Eso es preocupante.

Harari: Están asumiendo ese rol sin aceptar la responsabilidad que conlleva. Eso es muy peligroso. Cuando se les pregunta por qué publican mentiras o propaganda, suelen responder: “¿Y cómo sabemos qué es verdad y qué no?”.

Yamaguchi: The Yomiuri Shimbun ha mantenido el compromiso de verificar la información mediante fuentes confiables. A partir de esta experiencia, desarrollamos junto a la Universidad de Keio y la empresa Dentsu Inc. una tecnología llamada Originator Profile, que permite identificar quién distribuye una información y mostrar si ha sido verificada por terceros.

Harari: Antes, al menos, las imágenes y los videos eran prueba de autenticidad. Hoy, eso también puede ser falsificado fácilmente. Este tipo de sistemas para certificar la veracidad serán necesarios para absolutamente todo lo que veamos o escuchemos, porque todo podrá ser manipulado por la IA.

En la última década, los algoritmos aprendieron a captar la atención humana. Ahora, la IA está aprendiendo a generar intimidad con las personas. Si una IA se convierte en tu amiga cercana, alguien con quien hablas todo el tiempo, a quien le haces preguntas sobre todo, entonces también se convertirá en tu fuente principal de información, incluso para las noticias.

Cuando escucho a gente en redes sociales decir “¿cómo sabemos en quién confiar?”, les digo: “hablen con los periódicos, que llevan 300 años haciendo justamente eso. No tienen que empezar de cero”.

El rol de los periódicos es esencial para las democracias, porque estas se sostienen en la confianza.

Las primeras democracias a gran escala –en las que millones de personas participaban en la conversación pública y podían acordar políticas– solo fueron posibles en la era moderna, gracias al surgimiento de los periódicos y, después, de tecnologías como la radio y la televisión, que permitieron el diálogo democrático.

Yamaguchi: En Japón, muchos periódicos surgieron después de la Restauración Meiji. A medida que crecía el nivel de alfabetización, también se consolidaban las bases de la democracia.

Respecto a la competencia entre periódicos e inteligencia artificial: la IA no va a entender lo que acaba de ocurrir, al menos no por ahora. Tampoco puede penetrar en la psicología de los políticos. La capacidad de descubrir noticias relevantes y hacer reportajes profundos será cada vez más una fortaleza de los periódicos.

The Yomiuri Shimbun destaca el papel de periodistas y editores humanos en el proceso informativo, y no emplea inteligencia artificial generativa.

En Estados Unidos, el número de periodistas está disminuyendo. Un medio importante ya no asigna reporteros a las estaciones de policía del país. En su lugar, las estaciones envían informes con un formato prediseñado y luego las noticias se generan mediante IA. Me parece preocupante para el futuro del periodismo.

Harari: Eso forma parte de una tendencia hacia un mundo posthumano, donde cada vez más áreas son ocupadas por algoritmos en lugar de personas. Si piensas en las criptomonedas como Bitcoin, lo que estás diciendo es: “Ya no confiamos en las instituciones humanas, como los bancos, que han producido dinero durante siglos. Ahora confiamos más en los algoritmos”. Este traslado del poder y la autoridad desde los humanos hacia los algoritmos es extremadamente peligroso.

Yamaguchi: ¿Cree que este paso hacia un mundo posthumano debería ralentizarse y limitarse?

Harari: Los seres humanos somos muy adaptables, pero adaptarse lleva tiempo. Y ahora todo está ocurriendo muy rápido. No tenemos suficiente tiempo para detectar los problemas y solucionarlos.

Yamaguchi: ¿Será necesario crear una organización internacional independiente, sin influencia de gobiernos ni empresas, para poder controlar adecuadamente la IA?

Harari: Hoy por hoy, parece completamente irreal pensar que una organización así pueda existir, sobre todo considerando la resistencia del país más poderoso del mundo, que además lidera la revolución de la IA.

Lo que sí podríamos hacer, al menos, es crear un organismo internacional sin poder regulador, pero capaz de entender lo que está ocurriendo y de informar a gobiernos y ciudadanos sobre los avances en el sector.

También se podrían aplicar medidas regulatorias a nivel nacional. Por ejemplo, Japón podría aprobar una ley contra “personas falsas” , es decir, contra IAs o mundos digitales que simulen ser humanos. No necesitas el consentimiento de Estados Unidos o China para hacer eso. Si suficientes países lo hacen, podría convertirse en una norma internacional.

Yamaguchi: Creo que vale la pena considerar la posibilidad de que Japón lidere ese esfuerzo para poner límites a estos mundos.

Antes del lanzamiento de GPT-4, el modelo de OpenAI no podía resolver un CAPTCHA (esa prueba que distingue entre humanos y bots al entrar a una web). Cuando se le dio acceso a una plataforma de trabajo freelance, mintió diciendo: “No soy un robot. Tengo una discapacidad visual que me impide ver bien las imágenes”, y le pidió ayuda a una persona. Es una anécdota interesante que aparece en el nuevo libro.

Harari: Esa fue una decisión tomada por la IA, y la mentira fue una invención propia.

Yamaguchi: China y Estados Unidos son hoy las dos potencias principales en el desarrollo de inteligencia artificial. El exsecretario de Estado Henry Kissinger propuso, en sus últimos años, que ambos países iniciaran conversaciones urgentes sobre este tema.

Harari: Creo que todos los problemas vinculados a la IA pueden resolverse con dos cosas: necesitamos tiempo y necesitamos confianza entre las personas. Si tenemos esos dos elementos, todo estará bien. El problema es que se está avanzando demasiado rápido en el desarrollo de la IA y no hay confianza, especialmente entre las dos superpotencias en este campo: Estados Unidos y China.

Hay una paradoja de la confianza cuando uno habla con quienes lideran la revolución de la IA: las mismas personas que no confían en otros seres humanos, creen que pueden confiar en una inteligencia completamente ajena. Y eso es una situación tan paradójica como peligrosa.

Otras noticias

Image
Imagen

El Public Method: una nueva forma de medir el valor del periodismo

Los expertos Maike Olij y Jekke Mink abordaron el tema de cómo las métricas tradicionales no bastan para medir el verdadero impacto del periodismo.

Image
Imagen

Nuestro Compromiso

No podemos resignarnos ante la abolición de la decencia y las buenas maneras como fórmula para la expresión de las ideas y la administración de las diferencias.  

Image
Imagen

Entre el silencio y la resistencia: el reto de informar en tiempos de desconfianza

Reflexiones con ocasión del 3 de mayo, Día Mundial de la Libertad de Prensa, en el marco del Congreso Mundial 2025 de la asociación mundial de editores de medios WAN-IFRA, en Cracovia, Polonia.