Volver al blog
Análisis7 min17 Mar 2026Por Fabio Clinton

Responsabilidad legal de tu chatbot: qué pasa cuando se equivoca (y cómo protegerte)

Chatbot de IA en un estrado de tribunal bajo un foco, representando la responsabilidad legal de empresas por errores de chatbot

Tu chatbot acaba de decirle a un cliente que puede devolver un producto fuera de plazo. O que el tratamiento incluye una revisión gratuita. O que el piso tiene plaza de garaje. Nada de eso es verdad. Pero el cliente ya ha tomado una decisión basándose en esa información.

¿Quién tiene la responsabilidad legal? ¿El chatbot? ¿La empresa que lo usa? ¿La plataforma que lo creó?

Ya hay jurisprudencia que responde a esa pregunta. Y la respuesta no le gustó a Air Canada.

El caso Air Canada: un chatbot da información incorrecta y la empresa paga

En 2022, Jake Moffatt necesitaba volar de urgencia al funeral de su abuela. Antes de comprar el billete, consultó con el chatbot de Air Canada si podía acogerse a la tarifa de duelo después de viajar. El chatbot le dijo que sí: tenía 90 días tras el vuelo para solicitar el reembolso parcial.

Era mentira.

La política real de Air Canada dice que la tarifa de duelo hay que solicitarla antes de viajar, no después. Pero el chatbot lo explicó mal. Moffatt confió en esa información, compró el billete a precio completo y cuando pidió el reembolso se lo denegaron.

Llevó el caso a un tribunal civil de Columbia Británica. Y ganó.

¿Quién es responsable cuando un chatbot miente? Lo que dijo el juez

La defensa de Air Canada fue llamativa: argumentaron que el chatbot era "una entidad legal separada responsable de sus propias acciones".

El juez no se lo compró.

Su respuesta fue clara: "Aunque un chatbot tiene un componente interactivo, sigue siendo parte del sitio web de Air Canada. Debería ser obvio para Air Canada que es responsable de toda la información de su sitio web. No importa si la información viene de una página estática o de un chatbot."

Air Canada tuvo que pagar 812 dólares canadienses entre reembolso y costas. La cantidad es pequeña. El precedente, no.

Tu chatbot, tu responsabilidad

Si tienes un chatbot con IA en tu web que responde preguntas de clientes, legalmente eres tú quien responde. No la plataforma de chatbot. No la IA. No una "entidad separada". Tú.

Si el chatbot dice que un tratamiento cuesta 200€ y en realidad cuesta 350€, la responsabilidad es tuya. Si dice que hacéis envíos a Canarias y no los hacéis, la responsabilidad es tuya. Si confirma una cita que no existe, la responsabilidad es tuya.

Y esto no es teoría: ya hay sentencias que lo respaldan.

EU AI Act: la regulación de chatbots que entra en vigor en agosto de 2026

Por si el caso de Air Canada no fuera suficiente, el 2 de agosto de 2026 entra en aplicación la mayor parte del EU AI Act, la regulación de inteligencia artificial más ambiciosa del mundo. Algunas obligaciones ya están en vigor desde febrero de 2025, y la aplicación total se completa en agosto de 2027.

Si tu empresa opera en Europa o vende a clientes europeos, esto te afecta.

El EU AI Act clasifica los sistemas de IA por niveles de riesgo. Un chatbot de atención al cliente cae en "riesgo limitado", lo que implica una obligación concreta: transparencia. Tus clientes tienen que saber que están hablando con una IA, no con una persona.

No es opcional. A partir de agosto, es ley. Y en España ya hay una agencia dedicada a supervisarlo: la AESIA (Agencia Española de Supervisión de Inteligencia Artificial), la primera de su tipo en la Unión Europea, con sede en A Coruña. Esto no es un papel que se queda en un cajón de Bruselas.

¿Qué multas hay por incumplir el EU AI Act?

Las sanciones pueden llegar a 35 millones de euros o el 7% de la facturación global, lo que sea mayor. Suena aterrador, pero hay un matiz importante para pymes: las multas se calculan sobre el menor de los dos importes. Una empresa con 2 millones de facturación pagaría como máximo 140.000€ por la infracción más grave, no 35 millones.

Sigue siendo mucho dinero. Pero no es la cifra apocalíptica que lees en los titulares.

¿Mi chatbot es de "alto riesgo"?

Depende del uso, no de la tecnología. El mismo modelo de IA puede ser riesgo mínimo si lo usas para redactar emails internos, riesgo limitado si es un chatbot de atención al cliente, o alto riesgo si filtra candidatos en un proceso de selección.

Si tu chatbot simplemente responde preguntas sobre tus productos o servicios, las obligaciones son razonables: transparencia y datos correctos. No necesitas un departamento legal para cumplir.

Cómo protegerte de la responsabilidad legal de tu chatbot

Después de asustar, lo práctico.

1. Que el chatbot no invente

El problema de Air Canada no fue tener un chatbot. Fue que el chatbot daba información incorrecta.

Si tu chatbot está entrenado con tus datos reales y actualizados, la probabilidad de que invente baja drásticamente. Los chatbots con RAG (Retrieval-Augmented Generation) buscan en tus documentos antes de responder, en vez de improvisar.

¿Y si tus datos cambian? Si subes los precios, si cambias las condiciones de un servicio, si dejas de hacer envíos a cierta zona, el chatbot necesita saberlo. Los datos desactualizados son los que te meten en problemas. Si usas un chatbot con sincronización automática de datos, este problema desaparece: actualizas tu hoja de cálculo y el chatbot ya lo sabe.

2. Que el usuario sepa que es una IA

Que tu chatbot no invente te protege de juicios como el de Air Canada. Que avise de que es una IA te protege de las multas del EU AI Act. Son riesgos distintos, y necesitas cubrir los dos.

El EU AI Act lo va a exigir, pero es buena práctica igualmente. Un aviso claro de que están hablando con un asistente virtual.

No hace falta un disclaimer legal de 47 párrafos. Basta con que el nombre del chatbot, el mensaje de bienvenida o un texto en el widget deje claro que es un bot.

3. Que tenga salida a un humano

Un chatbot no debería ser un muro. Si la consulta es compleja, si el cliente insiste, si hay un problema real, tiene que haber una forma de contactar con una persona. Un email, un teléfono, un formulario.

El chatbot ayuda con el 80% de preguntas repetitivas. El 20% restante necesita a alguien de tu equipo.

4. Que no haga promesas

El chatbot de Air Canada "confirmó" que Moffatt podía pedir el reembolso después. Si en vez de confirmar hubiera dicho "según nuestra política, consulta los detalles en [enlace] o contacta con nuestro equipo", probablemente no habría habido juicio.

Instrucciones claras en el prompt del chatbot: no confirmar reservas, no garantizar precios si pueden cambiar, no prometer plazos que no puedas cumplir. Informar, no comprometerse.

No seas Air Canada

Un chatbot en tu web es una herramienta útil. Pero no es un pasante al que puedes ignorar. Lo que dice tu chatbot lo dices tú.

La buena noticia es que protegerte no es difícil: datos actualizados, transparencia, salida a humano y un prompt bien configurado. Son cosas que mejoran la experiencia del cliente igualmente, con o sin regulación.

De hecho, es exactamente lo que hacemos en Bravos AI. Nuestros chatbots responden solo con los datos que tú les das y se sincronizan automáticamente cuando los actualizas. Y tú decides el nombre, el mensaje de bienvenida y el tono — lo justo para que quede claro que es un bot, sin disclaimers que asusten.

Air Canada intentó echarle la culpa a su chatbot. El juez dijo que no.

No seas Air Canada.

Preguntas frecuentes

¿Quién es responsable si un chatbot da información incorrecta?

La empresa que lo usa. El caso Moffatt v. Air Canada estableció que un chatbot es parte del sitio web de la empresa, y la empresa es responsable de toda la información de su sitio, venga de una página estática o de un chatbot.

¿Los chatbots tienen que avisar de que son IA?

Sí, a partir de agosto de 2026 con el EU AI Act. Los sistemas de IA que interactúan directamente con personas deben informar de que el usuario está hablando con una IA, no con un humano.

¿Qué pasa si mi chatbot es de "alto riesgo"?

Depende del uso. Un chatbot de atención al cliente es "riesgo limitado" (solo transparencia). Pero si tu chatbot filtra candidatos, evalúa créditos o toma decisiones que afectan directamente a personas, es "alto riesgo" y necesita evaluaciones de impacto, documentación técnica y supervisión humana.

¿Cuánto me puede costar incumplir el EU AI Act?

Las multas llegan hasta 35 millones de euros o el 7% de la facturación global. Para pymes, se calcula sobre el menor de los dos importes. Una empresa con 2M€ de facturación pagaría como máximo 140.000€ por la infracción más grave.

Fuentes

¿Quieres un chatbot que no te meta en problemas?

Crea tu chatbot con datos actualizados, sincronización automática y transparencia. En menos de 5 minutos.

Empezar gratis