Las cuatro preguntas más importantes que debe responder antes de utilizar un chatbot de inteligencia artificial en su sitio web

¿Debería utilizar un chatbot de inteligencia artificial en mi sitio web?

Los chatbots de IA incorporados a los sitios web de las empresas pueden ser tremendamente útiles. Pero también pueden acarrear enormes costes, dolores de cabeza e incluso demandas si no se incorporan correctamente. En este post, examinaremos las cuatro preguntas principales que debes responder antes de incorporar un chatbot de IA a tu sitio web.

1. ¿Qué les digo a mis clientes?

Una parte consistente de la práctica web3 de nuestra firma es la redacción de políticas de sitios web - todo, desde las políticas de privacidad, a los términos de servicio, a las políticas de chatbot AI y términos. Según nuestra experiencia, muchas empresas se lanzan de cabeza a una nueva tecnología sin las políticas necesarias, lo que puede dar lugar a problemas enormes y costosos.

Algunas empresas empeoran aún más las cosas sacando las políticas de los sitios web de Internet, cambiándoles el nombre y volviendo a publicar la política del sitio web de otra persona en su propio sitio web. Me gustaría estar bromeando sobre esto, pero sucede más a menudo de lo que te puedas imaginar, y puede y a menudo conduce a consecuencias devastadoras.

Por ejemplo, ¿qué probabilidades hay de que su empresa tenga exactamente las mismas prácticas de privacidad que otra? ¿Un cinco por ciento? A menos que una política refleje las prácticas reales de su empresa, utilizar la política del sitio web de otra empresa es como pedir una demanda. Y créame, hay un enorme mercado de abogados demandantes que estarían más que encantados de presentar una.

Lo primero que deben hacer las empresas que utilizan chatbots de IA, o que tienen un sitio web, es establecer una buena política o un conjunto de condiciones. Y para hacerlo de forma competente, primero hay que hacer algunas cosas.

2. ¿Te meterá en problemas el chatbot de inteligencia artificial?

Es probable que hayas leído sobre el reciente escándalo de Google Gemini, que supuestamente hizo que las acciones de Google perdieran 70.000 millones de dólares de valor. Puede que incluso hayas oído hablar de cosas como que el chatbot de inteligencia artificial de Old Navy ha sido acusado de escuchas ilegales. Dejando de lado algunos de los casos y acusaciones más publicitados, todavía hay un montón de maneras en que los chatbots de IA pueden generar resultados que son problemáticos y pueden causarle daño. Algunos ejemplos son:

  • Hacer declaraciones difamatorias que puedan imputarse al operador del sitio web.
  • Proporcionar instrucciones incorrectas sobre cómo utilizar un producto o servicio.
  • Inventando cosas. Al parecer, esto ocurre a menudo. Hasta los abogados se dejan engañar.

Este tipo de cosas pueden parecer triviales, pero pueden tener consecuencias bastante negativas. Por ejemplo, OpenAI fue demandada por difamación cuando ChatGPT supuestamente creó una denuncia falsa acusando a alguien de malversación de fondos. Imagínese lo que pasaría si un usuario pidiera instrucciones a un chatbot de IA sobre cómo utilizar su producto, recibiera instrucciones incorrectas o incompletas y, como resultado, sufriera lesiones o daños.

Incluso las empresas de IA parecen reconocer la posibilidad de que los resultados generados por la IA puedan causar problemas. Las condiciones de servicio de Anthropic (Claude.ai) a partir de febrero de 2024 establecen lo siguiente:

Dependencia de los resultados. La inteligencia artificial y los grandes modelos lingüísticos son tecnologías de vanguardia que siguen mejorando en precisión, fiabilidad y seguridad. Al utilizar nuestros Servicios, usted reconoce y acepta:

    1. Los resultados pueden no ser siempre exactos y contener imprecisiones materiales aunque parezcan precisos debido a su nivel de detalle o especificidad.

    2. No debe confiar en ningún resultado sin confirmar independientemente su exactitud.

    3. Los Servicios y cualquier Resultado pueden no reflejar información correcta, actual o completa.

    4. Los resultados pueden contener contenidos incompatibles con los puntos de vista de Anthropic.

La cuestión es que las herramientas de IA distan mucho de ser perfectas. Las empresas que quieran implantar chatbots de IA deben ser conscientes de los riesgos potenciales y pensar en formas de mitigarlos. Algunas técnicas de mitigación pueden ser técnicas, como asegurarse de que el chatbot de IA solo proporcione respuestas limitadas. Otras técnicas de mitigación pueden incluir políticas y cláusulas de exención de responsabilidad exhaustivas para los chatbots de IA.

3. ¿A quién pertenece el resultado generado por el chatbot de IA?

Cuando alguien da una orden a un programa de IA ("entrada"), recibe una respuesta ("salida"). ¿Es el usuario el propietario de la salida? ¿Y la entrada? La respuesta puede depender mucho del tipo de herramienta de IA que se utilice. Y si el usuario es el propietario, ¿quién más puede utilizarla?

Por ejemplo, las condiciones de uso de OpenAI de enero de 2024 establecen que "Entre usted y OpenAI, y en la medida en que lo permita la legislación aplicable, usted (a) conserva sus derechos de propiedad sobre Input y (b) es propietario de Output. Por la presente, le cedemos todos nuestros derechos, títulos e intereses, si los hubiera, sobre la Salida". Esto suena muy bien: un usuario es propietario de su entrada y se le asigna la propiedad de la salida. Pero espere: la política continúa diciendo que "podemos utilizar el Contenido para proporcionar, mantener, desarrollar y mejorar nuestros Servicios, cumplir la legislación aplicable, hacer cumplir nuestros términos y políticas y mantener la seguridad de nuestros Servicios". De hecho, un usuario que no quiera que su "Contenido" se utilice para entrenar modelos de IA tiene que optar afirmativamente por no hacerlo.

Veamos las condiciones de servicio de Anthropic citadas anteriormente. Similar a los términos de OpenAI, la política de Anthropic establece: "Entre usted y Anthropic, y en la medida en que lo permita la legislación aplicable, usted conserva cualquier derecho, título e interés que tenga sobre los Prompts que envíe. Sujeto al cumplimiento por su parte de nuestras Condiciones, le cedemos todos nuestros derechos, títulos e intereses -si los hubiera- sobre los Resultados". Pero continúan diciendo:

Nuestro uso de los Materiales. Podemos utilizar los Materiales para proporcionar, mantener y mejorar los Servicios y para desarrollar otros productos y servicios. No entrenaremos nuestros modelos en ningún Material que no esté disponible públicamente, excepto en dos circunstancias:

  1. Si nos proporciona Comentarios (a través de los Servicios o de otro modo) en relación con cualquier Material, podremos utilizar dichos Comentarios de conformidad con la Sección 5 (Comentarios).
  2. Si sus Materiales se marcan para una revisión de confianza y seguridad, podemos utilizar o analizar dichos Materiales para mejorar nuestra capacidad de detectar y hacer cumplir las infracciones de la Política de uso aceptable, incluidos los modelos de formación para uso de nuestro equipo de confianza y seguridad, en consonancia con la misión de seguridad de Anthropic.

¿Qué significa "proporcionar Feedback"? Bueno, la política dice (negrita añadida):

Agradecemos sus comentarios, incluidas ideas y sugerencias de mejora o la valoración de un resultado en respuesta a una pregunta ("Comentarios"). Si valora un Resultado en respuesta a una Pregunta (por ejemplo, utilizando el icono de pulgar hacia arriba o pulgar hacia abajo), almacenaremos la conversación relacionada como parte de su Opinión. Usted no está obligado a darnos su opinión, pero si lo hace, acepta que la utilicemos como queramos sin ninguna obligación ni pago para usted.

Según mi interpretación de esta política, el simple hecho de dar un pulgar arriba o abajo podría considerarse "Feedback" y los materiales asociados podrían ser utilizados por Anthropic.

¿Por qué es importante todo esto? Bueno, si alguien está utilizando la IA para generar resultados que quiere comercializar, la empresa de IA que proporciona el programa puede tener condiciones que limiten o restrinjan esa comercialización (dejando a un lado las complicadas cuestiones de las leyes de derechos de autor). Y los usuarios pueden haber acordado una licencia efectiva de los resultados a la empresa que proporciona el programa de IA. También existen posibles problemas de privacidad. Si un usuario introduce información confidencial o protegida por leyes de privacidad, y de repente descubre que no ha dado a un tercero una licencia sobre esa información.

Las empresas que desplieguen chatbots de IA deben pensar en estrategias de mitigación de riesgos (véase el punto 2 anterior) y estudiar detenidamente las condiciones asociadas de cualquier empresa de IA cuyos programas pretendan utilizar o incorporar.

4. ¿Debería preocuparme la privacidad y confidencialidad de los datos?

Sí, y por las mismas razones expuestas en el apartado 3 anterior. También en este caso podrían emplearse muchas de las mismas estrategias de mitigación de riesgos. Incluso antes de la era de la IA, muchos sitios web contenían declaraciones que prohibían a los usuarios proporcionar información confidencial o protegida por la ley de privacidad a través de un sitio web o correo electrónico. Pero en la era de la IA, este tipo de declaraciones se han vuelto mucho más importantes.

Conclusión

Los chatbots de IA todavía tienen mucho camino por recorrer antes de ser lo suficientemente sofisticados como para desplegarse sin mayores preocupaciones. Las empresas que quieran integrarlos en sus sitios web deben ser conscientes de los riesgos que entrañan e idear herramientas para mitigarlos. De lo contrario, podrían encontrarse entre la primera ronda de demandados en la próxima era de litigios por IA.

Seguir leyendo

Web3