15 de Mayo de 2023
A medida que aumenta la adopción de chatbots y la inteligencia artificial (IA) generativa (aquella que se concentra en generar contenido original a partir de datos existentes y en respuesta a indicaciones), es fundamental comprender los riesgos legales y empresariales asociados con estas tecnologías.
Un artículo publicado por Tech Policy Press, una empresa de medios de comunicación sin ánimo de lucro que se centra en generar discusiones y debate sobre la intersección entre la tecnología y la democracia, arroja luz sobre los posibles desafíos que enfrentan las organizaciones al implementar chatbots y sistemas de IA generativa.
Según Tech Policy Press, este es “un campo en rápido desarrollo, y a medida que la tecnología avance y surjan nuevos usos surgirán nuevos peligros y oportunidades legales y empresariales”. Por eso, “los gobiernos, las empresas y la sociedad pueden aprovechar las primeras lecciones aprendidas de la popularidad explosiva de la IA generativa para desarrollar barreras de protección contra sus peores comportamientos y usos antes de que esta tecnología impregne todas las facetas del comercio”.
Los riesgos
A continuación, reproducimos los principales riesgos de los que deben ser conscientes las empresas y de cómo abordarlos. Estos fueron identificados por los autores del texto de Tech Policy Press: Matthew Ferraro, Louis Tompros, Haixia Lin y Natalie Li.
- Privacidad y protección de datos
Una de las principales preocupaciones en torno a los chatbots y la IA generativa es el manejo de datos personales. A medida que estas tecnologías interactúan con los usuarios y recopilan información, las organizaciones deben garantizar el cumplimiento de las leyes y regulaciones de privacidad, como el Reglamento General de Protección de Datos (RGPD) o la Ley de Privacidad del Consumidor de California (CCPA).
Los chatbots pueden recoger información personal de forma rutinaria. Por ejemplo, la política de privacidad de ChatGPT establece que recopila la dirección IP del usuario, el tipo de navegador y la configuración de su buscador; datos sobre las interacciones del usuario con el sitio; y las actividades de navegación del usuario a lo largo del tiempo y a través de sitios web, y puede compartir esta información con terceros. Hasta ahora, los principales chatbots no ofrecen a los usuarios la opción de eliminar la información personal recopilada por sus modelos de IA.
Adicionalmente, está la privacidad de la información que los usuarios le proporcionan deliberadamente a estas tecnologías. De acuerdo con el texto, en un intercambio con un profesor, el propio ChatGPT advirtió que “la información que se me proporciona durante una interacción debe considerarse pública, no privada” y que el bot no puede “garantizar la seguridad o confidencialidad de ninguna información intercambiada durante estas interacciones, y las conversaciones pueden almacenarse y utilizarse con fines de investigación o formación”.
Según Tech Policy Press, no hay que perder de vista que los chatbots y otros programas de IA generativa son máquinas de aprendizaje que, por defecto, utilizan la información que se les introduce para sus propios fines y que producen sus propios resultados.
- Infracción de propiedad intelectual
Los chatbots y los sistemas de IA generativa pueden infringir inadvertidamente los derechos de propiedad intelectual existentes. Ya sea utilizando contenido con derechos de autor o generando contenido que se asemeje a marcas comerciales existentes, las organizaciones deben tener cuidado para evitar disputas legales y proteger la originalidad de sus ofertas.
Tech Policy Press advierte que “dado que las leyes de Estados Unidos y Europa imponen restricciones a la divulgación de determinada información personal sobre los interesados u obtenida de ellos (alguna que los chatbots pueden recopilar automáticamente y otra que un usuario puede introducir en la consulta del chatbot), las empresas que utilicen chatbots o los integren en sus productos deben proceder con cautela”.
Para mitigar los riesgos relacionados con la privacidad de los datos, las empresas que utilizan chatbots y herramientas de IA generativa la publicación recomienda revisar sus políticas y divulgaciones de privacidad, cumplir con las leyes de protección de datos aplicables con respecto al procesamiento de información personal y proporcionar opciones de exclusión y eliminación.
- Prácticas engañosas
Los chatbots que generan respuestas automatizadas deben ser transparentes sobre su naturaleza no humana. Engañar a los usuarios haciéndoles creer que están conversando con un humano puede generar repercusiones legales y dañar la reputación de una empresa.
Esto es importante pues si un empleado subcontrata el trabajo a un chatbot o software de IA cuando un consumidor cree que está hablando con un humano, o si un producto generado por IA se comercializa como hecho por humanos, estas tergiversaciones pueden ir en contra de las leyes federales y estatales que prohíben las prácticas comerciales desleales y engañosas.
Por ejemplo, en 2016, la Comisión Federal de Comercio de Estados Unidos alegó que un sitio web de citas orientado a adultos engañó a los consumidores mediante el uso de perfiles para que sus clientes se registraran y, en 2019, alegó que un acusado vendió seguidores, suscriptores y likes falsos a los clientes para impulsar los perfiles de redes sociales. En resumen, “si el uso de un perfil de citas falso, un seguidor falso, deepfakes o un chatbot de IA por parte de una empresa lleva a sus consumidores a ser engañados, esa empresa podría enfrentarse a una acción de aplicación de la Comisión Federal de Comercio”, o a la aplicación por parte de las autoridades estatales de protección al consumidor por parte del gobierno.
La recomendación para evitar este tipo de sanciones es que las compañías sean transparentes. Además, las empresas deben ser transparentes a la hora de recopilar datos sensibles para alimentar un algoritmo que alimente una herramienta de IA, explicar cómo las decisiones de una IA afectan a un consumidor y garantizar que las decisiones sean justas.
- Responsabilidad por la veracidad del contenido y la precisión
Con la automatización de respuestas, existe el riesgo de que los chatbots difundan información incorrecta o perjudicial. Las organizaciones que implementan chatbots deben establecer protocolos para monitorear y garantizar la precisión de las respuestas, mitigando la responsabilidad potencial por desinformación o daños causados por sus sistemas.
Esto, pues los chatbots pueden ayudar a los actores maliciosos a crear información falsa a gran escala, rápidamente y a bajo costo. Los investigadores demostraron recientemente que los chatbots pueden crear artículos de noticias, ensayos y guiones que difunden teorías conspirativas, “suavizando errores humanos como mala sintaxis y traducciones erróneas”.
Es más, personas con malas intenciones pueden enseñar a los modelos de IA información falsa introduciendo mentiras en sus modelos, que estos pueden replicar.
En este sentido, también es recomendable que las marcas se esfuercen por comunicar proactivamente sus mensajes, controlar cómo se perciben sus marcas en Internet y estar preparados para responder en caso de incidente. En el caso de las profesiones reguladas por organizaciones de ética profesional, como abogados, médicos y contables, una buena práctica es asegurarse de que su uso de la IA se ajusta a sus obligaciones profesionales.
- Discriminación y sesgo
Los chatbots pueden perpetuar inadvertidamente sesgos presentes en los datos de entrenamiento a los que están expuestos. Según Tech Press Policy, esto plantea preocupaciones de discriminación basada en raza, género u otras características protegidas.
Los sesgos pueden deberse a la naturaleza sesgada de los datos con los que se entrenan las herramientas de IA. Esto, puesto que los modelos de IA son construidos por humanos y aprenden utilizando datos creados por humanos. Así, el sesgo humano puede estar presente en el diseño, desarrollo, implementación y uso de una IA. Por ejemplo, en 2018, Amazon supuestamente desechó un programa de reclutamiento basado en IA después de que la compañía descubriera que el algoritmo estaba sesgado en contra de las mujeres. El modelo estaba programado para examinar a los candidatos observando patrones en las hojas de vida enviadas a la empresa durante un período de 10 años, pero como la mayoría de los candidatos en el conjunto de entrenamiento habían sido hombres, la IA concluyó que los candidatos masculinos eran preferidos sobre las candidatas femeninas.
A esto se suma que los usuarios pueden manipular a propósito los sistemas de IA y los chatbots para producir resultados poco favorecedores o reproducir prejuicios.
Por estas razones, reguladores federales y la Casa Blanca han subrayado repetidamente la importancia de utilizar la IA de forma responsable y no discriminatoria. “Los diseñadores, desarrolladores e implantadores de sistemas automatizados deben tomar medidas proactivas y continuas para proteger a las personas y comunidades de la discriminación algorítmica y para utilizar y diseñar los sistemas de forma equitativa”, aconseja la Casa Blanca.
Tech Press Policy recomienda a las organizaciones implementar estrategias para identificar y mitigar los sesgos en el comportamiento de sus chatbots.
- Incumplimiento normativo
Las organizaciones que implementan chatbots y sistemas de IA generativa deben navegar un panorama normativo en constante evolución. El cumplimiento de regulaciones específicas de industrias como la salud o las finanzas es crucial para evitar consecuencias legales y garantizar el uso ético de estas tecnologías.
Adicionalmente, las empresas deben tener cuidado a la hora de introducir en las solicitudes de chatbot información de clientes, consumidores o socios que esté sujeta a limitaciones contractuales de confidencialidad u otros controles.
- Vulnerabilidades de seguridad
Tech Policy Press advierte que los chatbots y los sistemas de IA generativa pueden ser objeto de ataques por parte de actores maliciosos, lo que puede resultar en acceso no autorizado a información confidencial o actividades manipuladoras.
En segundo lugar, dado que los chatbots pueden hacerse pasar de forma convincente por humanos, pueden utilizarse para crear conversaciones que pueden emplearse en ingeniería social, phishing y esquemas publicitarios maliciosos, incluso por parte de actores malintencionados con escasos conocimientos lingüísticos. “Chatbots como ChatGPT normalmente no permiten usos maliciosos a través de sus políticas de uso e implementan reglas del sistema para prohibir que los bots respondan a consultas que solicitan la creación de código malicioso per se; sin embargo, los investigadores de ciberseguridad han encontrado soluciones que los actores de amenazas en la web oscura y fuentes de acceso especial ya han explotado”, dice la publicación.
En este contexto, las empresas deben redoblar sus esfuerzos para reforzar su ciberseguridad y capacitar a sus empleados para que estén atentos a las estafas de phishing e ingeniería social. También es recomendable proteger sus sistemas de amenazas cibernéticas.
- Falta de supervisión humana
No es recomendable depender únicamente de chatbots sin supervisión humana, pues esto puede tener consecuencias imprevistas.
“Por muy impresionantes que sean los chatbots, pueden hacer afirmaciones falsas, aunque suenen autoritarias, a menudo denominadas alucinaciones. Estos sistemas no son sensibles y no conocen los hechos. Sólo conocen la respuesta más probable a una pregunta basándose en los datos con los que han sido entrenados”, advierte Tech Policy Press.
OpenAI reconoce que ChatGPT puede “producir ocasionalmente respuestas incorrectas” y advierte de que ChatGPT tiene “un conocimiento limitado del mundo y de los acontecimientos posteriores a 2021”. Los usuarios han marcado y catalogado respuestas en las que ChatGPT ha errado en problemas matemáticos, consultas históricas y acertijos lógicos.
Las empresas que quieran utilizar chatbots no deben aceptar sin más la información generada por la IA como verdadera y deben tomar medidas para validar las respuestas antes de incorporarlas a cualquier producto de trabajo, acción o decisión empresarial.
Las recomendaciones
Finalmente, Tech Press Policy arroja una serie de recomendaciones para las empresas que quieren usar la inteligencia generativa y los chatbots de manera responsable.
- Sea prudente en la adopción de chatbots e IA generativa, especialmente en la búsqueda de contratos gubernamentales, o para generar trabajo requerido por contratos gubernamentales o comerciales.
- Considere la adopción de políticas que regulen cómo se desplegarán dichas tecnologías en los productos empresariales y cómo las utilizarán los empleados.
- Reconozca que los chatbots a menudo pueden equivocarse, e instruya a sus empleados para que no confíen en ellos de forma acrítica.
- Supervise cuidadosamente el envío de datos de empresas, clientes o consumidores a chatbots y herramientas de IA similares para garantizar que dicho uso cumple con las obligaciones contractuales y las normas de privacidad de datos.
- Si utiliza herramientas de IA generativa, revise las políticas de privacidad y divulgación, solicite el consentimiento de los usuarios antes de permitirles introducir información personal en las solicitudes y proporcione opciones de exclusión y eliminación.
- Si utiliza herramientas de IA, sea transparente al respecto con los clientes, empleados y clientes.
- Si utiliza software de IA o chatbots proporcionados por terceros, pídales una indemnización contractual por los daños que puedan derivarse del uso de esa herramienta.
- Refuerce las defensas de ciberseguridad e ingeniería social contra las amenazas de la IA.
- Revise los resultados de la IA para detectar efectos perjudiciales o discriminatorios.
- Desarrolle planes para contrarrestar la desinformación generada por la IA.
- Garantice que el uso de la IA se ajusta a las normas éticas y profesionales aplicables.
- Registre los derechos de autor de las obras originales y patente las tecnologías críticas para reforzar la protección contra el aprovisionamiento no autorizado por parte de modelos de IA y trabaje con asesores para garantizar que los resultados son de uso justo.