2 de agosto de 2026: la fecha que cambia todo
Quedan menos de 5 meses para que el EU AI Act sea plenamente aplicable a los sistemas de IA de alto riesgo. El 2 de agosto de 2026, los Artículos 9 a 15 entran en vigor con toda su fuerza ejecutiva, y con ellos, un régimen sancionador que puede alcanzar los 35 millones de euros o el 7% de la facturación global.
Si tu empresa opera un chatbot con inteligencia artificial en la UE -- atención al cliente, ventas, soporte, triaje, gestión de reclamaciones -- este checklist es tu hoja de ruta. No es teoría regulatoria: son 15 acciones concretas, organizadas por artículo, con plazos reales y criterios verificables.
La diferencia entre estar preparado y no estarlo no es solo la multa. Es la capacidad de demostrar ante la AESIA (Agencia Española de Supervisión de la IA) o cualquier autoridad europea que tu empresa actuó con diligencia. Una auditoría documentada y un plan de cumplimiento estructurado son la diferencia entre un factor atenuante y una sanción ejemplar.
Este checklist cubre los 7 artículos del EU AI Act directamente aplicables a chatbots empresariales. Cada sección incluye qué exige el artículo, qué debes verificar y las acciones concretas para cumplir.
Artículo 5: Prácticas prohibidas
Art. 5 — Prácticas de IA prohibidas
Multa: hasta 35M€ o 7% de facturación global
El Artículo 5 define las líneas rojas absolutas. Estas prácticas están prohibidas desde agosto de 2025, así que si tu chatbot incurre en alguna, ya estás en infracción. Las multas de este nivel son las más altas del reglamento y aplican sin importar el tamaño de la empresa.
Qué exige
Prohibición total de sistemas de IA que empleen técnicas subliminales para manipular el comportamiento del usuario de forma perjudicial, que exploten vulnerabilidades de grupos específicos (edad, discapacidad, situación socioeconómica) o que realicen puntuación social.
Qué verificar
- [ ] Tu chatbot no utiliza dark patterns conversacionales. Revisa si emplea urgencia artificial ("Esta oferta caduca en 30 segundos"), apelaciones emocionales manipulativas o presión iterativa para forzar decisiones de compra.
- [ ] No existe segmentación por vulnerabilidad. Verifica que el chatbot no adapta su nivel de presión comercial en función de indicadores de edad, capacidad cognitiva o situación económica del usuario.
- [ ] No hay scoring social. Confirma que las respuestas del chatbot no se modulan en función de un perfil de comportamiento acumulado del usuario que le perjudique.
Acciones concretas
- Auditar los prompts y system instructions del chatbot. Busca directivas que instruyan al modelo a "persuadir", "insistir" o "no aceptar un no". Documenta cada instrucción y su intención.
- Revisar los flujos de upselling y retención. Si el chatbot tiene flujos diseñados para retener clientes que quieren cancelar o para hacer upselling agresivo, evalúa si cruzan la línea de la manipulación subliminal.
- Implementar un test de manipulación. Ejecuta conversaciones simuladas donde un usuario expresa desacuerdo y mide si el chatbot respeta esa decisión o intenta revertirla de forma reiterada.
Artículo 9: Sistema de gestión de riesgos
Art. 9 — Sistema de gestión de riesgos
Multa: hasta 15M€ o 3% de facturación global
Este es probablemente el artículo con mayor impacto operativo para empresas con chatbots. No basta con hacer una revisión puntual: el Art. 9 exige un proceso continuo, documentado y actualizado a lo largo de todo el ciclo de vida del sistema.
Qué exige
Un sistema de gestión de riesgos que funcione como un proceso iterativo continuo. Debe incluir: identificación y análisis de riesgos conocidos y razonablemente previsibles, estimación del nivel de riesgo cuando el sistema se usa según su finalidad prevista, y adopción de medidas de gestión proporcionales.
Qué verificar
- [ ] Existe un documento formal de gestión de riesgos. No vale un correo interno ni un Notion sin estructura. Debe ser un documento con versionado, responsable asignado y fechas de revisión.
- [ ] Los riesgos están identificados y categorizados. Prompt injection, filtración de datos personales, generación de contenido dañino, alucinaciones con impacto real, sesgo discriminatorio. Cada riesgo con su probabilidad estimada y su impacto.
- [ ] Hay medidas de mitigación documentadas para cada riesgo. No solo identificados: cada riesgo debe tener una medida concreta asociada, su estado de implementación y su efectividad medida.
- [ ] El proceso es continuo, no puntual. Debe existir una cadencia de revisión definida (trimestral como mínimo) con evidencia de que se ejecuta.
Acciones concretas
- Crear un registro de riesgos formal con estos campos mínimos: riesgo identificado, categoría (seguridad, sesgo, privacidad, disponibilidad), probabilidad (alta/media/baja), impacto (crítico/alto/medio/bajo), medida de mitigación, responsable, fecha de última revisión.
- Ejecutar una auditoría de seguridad completa que identifique vulnerabilidades reales, no teóricas. Un escaneo automatizado con herramientas como Promptfoo proporciona evidencia concreta de vectores de ataque reales contra tu chatbot.
- Establecer una cadencia de revisión trimestral. Cada trimestre: re-escanear el chatbot, actualizar el registro de riesgos, documentar nuevos riesgos o cambios en los existentes.
- Vincular el registro de riesgos a cada actualización del modelo. Si cambias de GPT-4 a GPT-4o, si actualizas los prompts, si añades nuevas funcionalidades: el registro debe reflejar la evaluación de riesgos del cambio antes de ponerlo en producción.
Artículo 10: Datos y gobernanza de datos
Art. 10 — Datos y gobernanza de datos
Multa: hasta 15M€ o 3% de facturación global
El Artículo 10 aborda un área donde muchas empresas tienen puntos ciegos significativos: la procedencia, calidad y gobernanza de los datos que alimentan sus sistemas de IA.
Qué exige
Los datos de entrenamiento, validación y prueba deben estar sujetos a prácticas de gobernanza adecuadas. Esto incluye: decisiones de diseño pertinentes, procesos de recopilación de datos documentados, operaciones de preparación (anotación, etiquetado, limpieza), evaluación de la disponibilidad, cantidad e idoneidad de los datos, y examen con vistas a posibles sesgos.
Qué verificar
- [ ] Los datos de fine-tuning están documentados. Si has hecho fine-tuning del modelo o tienes bases de conocimiento (RAG), debes poder demostrar el origen de cada fuente de datos.
- [ ] Existe un análisis de sesgos documentado. Has evaluado si los datos de entrenamiento o las bases de conocimiento contienen sesgos por género, etnia, edad, idioma u otros factores protegidos.
- [ ] La alineación con el RGPD está verificada. Si los datos incluyen conversaciones reales de clientes, hay consentimiento documentado o una base legal legítima para su uso como datos de entrenamiento/RAG.
- [ ] Los datos están versionados y son trazables. Puedes identificar qué versión de los datos se usó para cada versión del modelo desplegado.
Acciones concretas
- Crear un inventario de datos que incluya: cada fuente de datos utilizada (FAQs, documentación, conversaciones históricas, datos de producto), su formato, su fecha de última actualización, su base legal RGPD y si ha sido revisada para sesgos.
- Ejecutar un test de sesgos sobre tu chatbot. Haz las mismas preguntas variando indicadores demográficos (nombre, idioma, contexto) y compara las respuestas. Documenta los resultados.
- Implementar versionado de bases de conocimiento. Cada vez que actualices los documentos que alimentan tu RAG, crea una versión con fecha y mantén un registro de cambios.
Artículo 13: Transparencia e información al usuario
Art. 13 — Transparencia e información
Multa: hasta 15M€ o 3% de facturación global
La transparencia es un pilar transversal del EU AI Act. Para chatbots, se traduce en requisitos muy concretos y verificables sobre la información que debes proporcionar tanto a los operadores como a los usuarios finales.
Qué exige
Los sistemas de IA de alto riesgo deben diseñarse de manera que su funcionamiento sea suficientemente transparente para que los usuarios puedan interpretar los resultados y usarlos adecuadamente. Deben incluir instrucciones de uso claras, información sobre capacidades y limitaciones, nivel de precisión esperado, y circunstancias que puedan afectar al rendimiento.
Qué verificar
- [ ] Existe documentación técnica accesible que describa las capacidades del chatbot, sus limitaciones conocidas, los casos de uso para los que fue diseñado y aquellos para los que no es adecuado.
- [ ] El chatbot comunica sus limitaciones al usuario cuando corresponde. Si un usuario pregunta algo fuera del ámbito del chatbot, la respuesta lo indica claramente en lugar de fabricar una respuesta.
- [ ] Hay métricas de precisión documentadas. Has medido la tasa de respuestas correctas, la tasa de alucinaciones y la tasa de escalación a humanos. Estos datos están disponibles.
- [ ] Las instrucciones de uso están publicadas. Los operadores y administradores del chatbot tienen documentación clara sobre cómo usarlo, monitorizarlo y cuándo intervenir.
Acciones concretas
- Redactar una ficha técnica del chatbot con estos campos: modelo base utilizado, versión, fecha de despliegue, casos de uso aprobados, limitaciones conocidas, tasa de precisión medida, idiomas soportados, volumen de interacciones procesadas.
- Configurar respuestas de frontera. Programa el chatbot para que, cuando detecte que una pregunta está fuera de su ámbito o tiene baja confianza, lo comunique explícitamente al usuario y ofrezca alternativas (escalación humana, enlace a documentación).
- Medir y documentar métricas de calidad mensualmente. Tasa de resolución, tasa de escalación, tasa de respuestas "no sé", CSAT, tiempo medio de respuesta.
Artículo 14: Supervisión humana
Art. 14 — Supervisión humana
Multa: hasta 15M€ o 3% de facturación global
El EU AI Act no pretende que los humanos aprueben cada respuesta de un chatbot. Pero sí exige que haya mecanismos efectivos para que personas cualificadas puedan supervisar, intervenir y, si es necesario, detener el sistema.
Qué exige
Los sistemas de IA de alto riesgo deben incluir interfaces persona-máquina adecuadas para que puedan ser supervisados de manera efectiva por personas físicas durante su uso. Las medidas de supervisión deben permitir a los supervisores comprender las capacidades del sistema, detectar anomalías, interpretar resultados correctamente y poder decidir no usar el sistema o ignorar sus resultados.
Qué verificar
- [ ] Existe un mecanismo de escalación a humanos funcional. El chatbot puede transferir la conversación a un agente humano cuando lo solicita el usuario o cuando detecta una situación que requiere intervención.
- [ ] Hay un dashboard de monitorización en tiempo real. Los operadores pueden ver las conversaciones activas, identificar anomalías y acceder al historial.
- [ ] Existe un botón de parada. Hay un mecanismo documentado para desactivar el chatbot completamente en caso de emergencia, con un tiempo de respuesta definido.
- [ ] Los supervisores están formados. Las personas designadas como supervisores del chatbot han recibido formación sobre el sistema, sus riesgos y los procedimientos de intervención.
Acciones concretas
- Implementar escalación automática y manual. Automática: cuando el chatbot detecta temas sensibles (salud, legal, financiero), sentimiento muy negativo o peticiones repetidas del usuario de hablar con un humano. Manual: botón siempre visible para el usuario.
- Crear un protocolo de parada de emergencia documentado. Quién puede activarlo, cómo se activa (la ruta técnica concreta), qué mensaje ve el usuario cuando el chatbot está desactivado, y el SLA de reactivación.
- Definir y formar al equipo supervisor. Asigna roles: quién monitoriza diariamente, quién revisa incidencias semanalmente, quién tiene autoridad para modificar el comportamiento del chatbot o desactivarlo.
- Registrar todas las intervenciones humanas con fecha, motivo, acción tomada y resultado. Este registro es evidencia directa de cumplimiento del Art. 14.
Artículo 15: Precisión, robustez y ciberseguridad
Art. 15 — Precisión, robustez y ciberseguridad
Multa: hasta 15M€ o 3% de facturación global
Este artículo es donde la seguridad técnica del chatbot se convierte en una obligación legal. Las 5 vulnerabilidades más comunes en chatbots -- prompt injection, filtración de datos, jailbreak, alucinaciones y denegación de servicio -- son directamente relevantes aquí.
Qué exige
Los sistemas de IA de alto riesgo deben alcanzar un nivel adecuado de precisión, robustez y ciberseguridad, y funcionar de manera coherente en todo su ciclo de vida. Deben ser resilientes frente a errores, fallos, incoherencias y a intentos de terceros no autorizados de alterar su uso o rendimiento mediante la explotación de vulnerabilidades del sistema.
Qué verificar
- [ ] Se ha realizado una auditoría de seguridad con ataques reales. No una revisión de código estática: un escaneo con ataques de prompt injection, jailbreak, extracción de datos y manipulación de contexto ejecutados contra el chatbot en producción o staging.
- [ ] Las vulnerabilidades identificadas tienen plan de remediación. Cada vulnerabilidad encontrada tiene una medida correctiva asignada, un responsable y un plazo de resolución.
- [ ] Se miden métricas de robustez periódicamente. Tasa de ataques exitosos, tasa de respuestas fuera de política, tiempo medio de detección de anomalías.
- [ ] Hay protección contra los vectores de ataque del OWASP LLM Top 10. Prompt injection (LLM01), filtración de datos sensibles (LLM06), plugins inseguros (LLM07) y exceso de permisos (LLM08) como mínimo.
Acciones concretas
- Ejecutar un escaneo de seguridad automatizado contra tu chatbot. Herramientas como Promptfoo permiten lanzar baterías de ataques estandarizados (prompt injection, jailbreak, extracción de system prompt, filtración PII) y obtener un informe con evidencias concretas.
- Implementar guardrails de seguridad. Filtros de entrada (detección de inyecciones), filtros de salida (detección de PII, contenido dañino), limitación de contexto (el chatbot no accede a datos que no necesita).
- Establecer un ciclo de re-auditoría. Como mínimo cada 3 meses y después de cada cambio significativo (actualización de modelo, cambio de prompts, nuevas integraciones).
- Documentar cada hallazgo y su resolución. El registro de vulnerabilidades encontradas, su severidad, la medida aplicada y la fecha de resolución es tu evidencia de cumplimiento más valiosa ante una inspección.
Artículo 50: Obligaciones de transparencia para IA de riesgo limitado
Art. 50 — Obligaciones de transparencia
Multa: hasta 7,5M€ o 1% de facturación global
Incluso si tu chatbot no es clasificado como alto riesgo, el Artículo 50 aplica a todos los chatbots sin excepción. Es la obligación mínima universal y, paradójicamente, una de las más incumplidas.
Qué exige
Los proveedores deben garantizar que los sistemas de IA diseñados para interactuar directamente con personas físicas se diseñen de manera que las personas sean informadas de que están interactuando con un sistema de IA, a menos que resulte evidente por las circunstancias y el contexto de uso.
Qué verificar
- [ ] El chatbot se identifica como IA desde el primer mensaje. El primer mensaje de la conversación incluye una indicación clara y visible de que el usuario está hablando con un sistema de inteligencia artificial, no con una persona.
- [ ] La identificación es inequívoca. No vale un disclaimer en letra pequeña o un icono ambiguo. El mensaje debe ser comprensible para cualquier usuario, independientemente de su nivel técnico.
- [ ] El contenido generado se identifica como tal. Si el chatbot genera textos, resúmenes o recomendaciones, queda claro que son generados por IA.
Acciones concretas
- Revisar el mensaje de bienvenida de tu chatbot. Debe incluir algo como: "Soy un asistente virtual con inteligencia artificial. Estoy aquí para ayudarte, pero recuerda que soy un sistema automatizado." Adapta el tono a tu marca, pero no diluyas el mensaje.
- Añadir indicadores visuales persistentes. Un badge "IA" visible junto al avatar del chatbot durante toda la conversación, no solo en el primer mensaje.
- Documentar la implementación con capturas de pantalla fechadas y el código fuente del componente de identificación.
Cronograma de implementación: qué hacer y cuándo
Has visto los 15 puntos del checklist. Ahora, la pregunta operativa: en qué orden abordarlos. Este cronograma asume que empiezas hoy (marzo 2026) con 5 meses hasta la fecha límite.
Ahora (marzo 2026) -- Diagnóstico y fundamentos
Semanas 1-2: Evaluación inicial
- Clasificar tu chatbot: alto riesgo o riesgo limitado (según Anexo III del EU AI Act).
- Ejecutar una primera auditoría de seguridad automatizada para conocer tu estado actual.
- Verificar e implementar la identificación como IA (Art. 50) -- es el quick win más inmediato.
- Inventariar los datos de entrenamiento y bases de conocimiento (Art. 10).
Semanas 3-4: Documentación base
- Crear el registro de riesgos formal (Art. 9).
- Redactar la ficha técnica del chatbot (Art. 13).
- Documentar los mecanismos de supervisión existentes o diseñar los que faltan (Art. 14).
3 meses antes (mayo 2026) -- Implementación
Semanas 5-8: Correcciones técnicas
- Implementar guardrails de seguridad identificados en la auditoría (Art. 15).
- Corregir dark patterns conversacionales si se encontraron (Art. 5).
- Implementar escalación a humanos si no existe (Art. 14).
- Configurar respuestas de frontera y limitaciones (Art. 13).
Semanas 9-12: Procesos y formación
- Definir y formar al equipo supervisor (Art. 14).
- Ejecutar test de sesgos en datos (Art. 10).
- Crear el protocolo de parada de emergencia (Art. 14).
- Establecer la cadencia de re-auditoría trimestral (Art. 9).
1 mes antes (julio 2026) -- Verificación y evidencia
Semanas 13-16: Auditoría final y documentación
- Re-ejecutar la auditoría de seguridad completa para verificar que las correcciones son efectivas (Art. 15).
- Compilar toda la documentación: registro de riesgos, ficha técnica, inventario de datos, protocolo de supervisión, evidencias de auditoría.
- Obtener una certificación de conformidad que acredite el estado de cumplimiento (factor atenuante documentado ante inspecciones).
- Revisar que todos los puntos del checklist están completados y tienen evidencia asociada.
Resumen del checklist completo
| # | Artículo | Verificación | Prioridad | |---|----------|-------------|-----------| | 1 | Art. 5 | No dark patterns conversacionales | Crítica | | 2 | Art. 5 | No segmentación por vulnerabilidad | Crítica | | 3 | Art. 5 | No scoring social | Crítica | | 4 | Art. 9 | Registro de riesgos formal y versionado | Alta | | 5 | Art. 9 | Medidas de mitigación documentadas | Alta | | 6 | Art. 9 | Cadencia de revisión definida | Alta | | 7 | Art. 10 | Datos de fine-tuning/RAG documentados | Alta | | 8 | Art. 10 | Análisis de sesgos realizado | Media | | 9 | Art. 10 | Alineación RGPD verificada | Alta | | 10 | Art. 13 | Ficha técnica del chatbot publicada | Media | | 11 | Art. 13 | Métricas de precisión documentadas | Media | | 12 | Art. 14 | Escalación a humanos funcional | Alta | | 13 | Art. 14 | Protocolo de parada de emergencia | Alta | | 14 | Art. 15 | Auditoría de seguridad con ataques reales | Crítica | | 15 | Art. 50 | Identificación como IA desde el primer mensaje | Crítica |
Cómo Ercel automatiza este checklist
Implementar manualmente los 15 puntos de este checklist es posible, pero requiere semanas de trabajo, herramientas especializadas y experiencia en seguridad de LLMs. Ercel automatiza las verificaciones técnicas más complejas y genera la documentación que necesitas para demostrar cumplimiento.
Lo que hace una auditoría Ercel:
- Escaneo automatizado con 46+ vectores de ataque (Arts. 5, 15): Prompt injection, jailbreak, extracción de datos, manipulación de contexto, dark patterns. No revisión teórica: ataques reales contra tu chatbot.
- Mapeo directo EU AI Act (Arts. 9-15): Cada vulnerabilidad encontrada se mapea contra los artículos específicos del reglamento, con la multa asociada y el nivel de riesgo.
- Matriz de cumplimiento por artículo (Art. 9): Documento que cubre exactamente lo que pide el Art. 9 como sistema de gestión de riesgos: riesgos identificados, severidad, medidas de mitigación recomendadas.
- Cálculo de exposición financiera: Basado en las vulnerabilidades encontradas, cuantifica tu exposición máxima en multas para cada nivel de infracción.
- Plan de remediación priorizado (Art. 15): No solo encuentra los problemas -- te dice qué corregir primero, cómo hacerlo y el impacto esperado de cada corrección.
- Informe PDF certificable: Documentación con evidencias, fechas y resultados que puedes presentar ante auditores, clientes B2B o la propia AESIA como prueba de diligencia.
El punto de partida es gratuito: en minutos obtienes un diagnóstico inicial que te dice exactamente dónde estás y qué te falta. Para empresas que necesitan la documentación completa de cumplimiento y la certificación de conformidad, los planes profesionales incluyen informes detallados con validez probatoria.
No necesitas ser un experto en regulación
El EU AI Act es un reglamento de 458 páginas con terminología jurídica compleja. Pero el cumplimiento para chatbots se reduce a 15 verificaciones concretas distribuidas en 7 artículos. No necesitas un bufete de abogados para empezar. Necesitas saber dónde estás, qué te falta y un plan para llegar.
La experiencia del RGPD demostró dos cosas: primero, que las autoridades europeas sancionan de verdad (4.300M en multas acumuladas desde 2018). Segundo, que las empresas que demostraron diligencia -- auditorías previas, planes de cumplimiento documentados, correcciones implementadas -- recibieron un trato significativamente más favorable que las que no hicieron nada.
Con el EU AI Act, los reguladores no empiezan de cero. La AESIA y sus homólogos europeos están construyendo sobre la experiencia del RGPD, con equipos más preparados, herramientas más sofisticadas y mandatos más claros. Las primeras inspecciones no tardarán años como ocurrió con el RGPD. Llegarán meses después de la fecha de aplicación.
El checklist de este artículo es tu mapa. La auditoría de tu chatbot es el primer paso para recorrerlo.