Pasar al contenido principal

A pesar de Google, la inteligencia artificial se masifica

Image
Fuente: Pexels
Fuente: Pexels

21 de Febrero de 2023

El lanzamiento del prototipo de bot de inteligencia artificial de OpenAI llamado ChatGPT puso a Google en alerta máxima. Así lo reseña una publicación de Business Insider, un medio digital estadounidense de noticias financieras y empresariales.

En su texto, el periodista Hasan Chowdhury, quien está basado en Londres y trabaja como reportero especializado en fondos de capital, relata que a finales de enero, algunos de los directivos más importantes de Google publicaron un artículo explicando los alcances de su investigación de inteligencia artificial (IA) titulada “¿Por qué nos enfocamos en la inteligencia artificial y con qué fin”. Entre los autores del artículo estaban el director ejecutivo Sundar Pichai, el vicepresidente senior James Manyika y el director ejecutivo de su unidad de investigación de inteligencia artificial DeepMind Demis Hassabis.

“Entendemos que la inteligencia artificial, como cualquier tecnología emergente, plantea múltiples complejidades y riesgos en evolución”, se lee en la publicación. “Nuestro desarrollo y uso de la inteligencia artificial debe abordar estos riesgos. Es por eso que nosotros, como empresa, consideramos imperativo utilizar la inteligencia artificial de manera responsable”, continúa.

Chowdhury señala que esta publicación se produjo un par de meses después del lanzamiento del aterrador e inteligente chatbot ChatGPT. Según Business Insider, este bot, que fue lanzado al aire el 30 de noviembre del año pasado, ha demostrado que la inteligencia artificial puede ser práctica y productiva. “Ya se ha utilizado para hacer trampa en tareas de escuela, escribir correos electrónicos de phishing impecables y escribir malware personalizado”, ejemplifica el Insider. 

Sin embargo, con OpenAI también ha quedado clara la facilidad de la inteligencia artificial para ser utilizada con fines negativos. A pesar de que la empresa tiene filtros de contenido codificados en ChatGPT para evitar que las personas lo usen para malos fines, algunos han comprobado que estas barreras de seguridad son relativamente fáciles de eludir.

En este contexto, a Google le conviene advertir sobre los posibles riesgos del uso descuidado de la inteligencia artificial. Según Business Insider, la estrategia de la empresa de posicionarse como el custodio responsable de la inteligencia artificial es una estrategia de negocios. 

El problema es que puede ser demasiado tarde para que Google intente hacer esto. Principalmente, debido a dos motivos. 

1. Competir contra el desarrollo de tecnologías como ChatGPT es realmente complicado

Google utiliza la inteligencia artificial para gran parte de su negocio, desde las consultas en lenguaje natural para búsquedas hasta la creación de páginas personalizadas en YouTube. Estos casos de uso, según su publicación, se basan en la misión de la empresa de “organizar la información del mundo y hacerla universalmente accesible y útil”.

De acuerdo con Google, la inteligencia artificial es “una tecnología en etapa inicial”, por lo que tiene el potencial de estar sujeta a una “aplicación incorrecta, un uso indebido y consecuencias no deseadas o imprevistas”.

Los posibles problemas del uso incorrecto de esta tecnología incluyen: inexactitudes, amplificación de los sesgos sociales, riesgos de ciberseguridad e impulsos a la desigualdad.

Business Insider señala que por este motivo, a la empresa no le conviene que el bot de OpenAI tenga problemas pues podría predisponer al público general frente a la inteligencia artificial. “Si ChatGPT causa problemas repetidos, podría socavar la confianza del público en la IA, lo que obviamente también se reflejaría negativamente en Google”, le dijo Richard Windsor de Radio Móvil Libre al periodista Hasan Chowdhury.

Business Insider señala que el profesor Michael Wooldridge, director de investigación fundamental de inteligencia artificial en el Instituto Turing, advirtió que si bien la respuesta de Google posiblemente haya sido producida por “la enorme publicidad que ha recibido ChatGPT”, también es cierto que los malos resultados en el pasado también dan motivos para pecar de precavidos.

Wooldridge se refiere a casos como el de Meta, anteriormente Facebook, y su modelo de lenguaje de inteligencia artificial Galactica que fue utilizado para escribir artículos científicos que produjeron “tonterías de aspecto muy plausible”. Esta tecnología permitió la posibilidad de que cualquiera pudiera “publicar en una revista científica o dictara una conferencia con contenido basura”. Esta herramienta fue finalmente retirada por Meta.

“Parece completamente plausible que Google esté tratando de mostrarse como operador responsable de la IA que no está dispuestos a lanzar herramientas al mercado hasta saber que son totalmente seguras y confiables”, dice Wooldridge.

2. Vendrán más herramientas como ChatGTP

Para Business Insider, “hay una avalancha de dinero que se está vertiendo en nuevas empresas de inteligencia artificial generativa que prometen lanzar aplicaciones al mundo real”.

Por ejemplo, el mismo día que Google publicó su artículo instando a la precaución, Microsoft anunció la disponibilidad general del servicio OpenAI de Azure en lo que dijo que marcaría su “compromiso continuo con la democratización de la IA”.

En la práctica, su anuncio significó que más empresas que usan Azure ahora pueden acceder fácilmente a herramientas como ChatGPT, así como al generador de imágenes de IA DALL E-2.

“ChatGPT llegará pronto al servicio Azure OpenAI, que ya está disponible de forma general, ya que ayudamos a los clientes a aplicar los modelos de IA más avanzados del mundo a sus propios imperativos comerciales”, dijo Satya Nadella, presidente y director ejecutivo de Microsoft. También se ha hablado de que Microsoft comenzará a implementar ChatGPT en su conjunto completo de productos de Office.

Sin duda, este ambiente está estimulando a Google. En una entrevista con Time, Hassabis de DeepMind insinuó que la empresa lanzará este año una versión beta privada de un bot similar a ChatGPT llamado Sparrow con miras a incorporar funciones de las que carece ChatGPT.

Desde el punto de vista de Windsor, Google parece ver a OpenAI, una empresa cofundada por personas como Elon Musk como “un grupo de vaqueros dispuestos a lanzar cualquier cosa para el consumo general”. Esto, a pesar de que Musk luego renunció a su participación en la startup en 2018.

“Pero para continuar con la metáfora del vaquero, que Google haga un llamado advirtiendo a usar con moderación la IA es un intento de cerrar la puerta del establo después de que el caballo se le ha escapado”, dice Business Insider, pues la realidad es que hoy en día el público puede acceder a potentes herramientas de IA. Ya no hay vuelta atrás.