Regulatorio

Cuánto cuesta NO cumplir con el EU AI Act: lecciones del GDPR

Por Emilio Molina Román··15 min de lectura

La historia del GDPR como oráculo del EU AI Act

Cuando el Reglamento General de Protección de Datos (RGPD) entró en vigor en mayo de 2018, las empresas se dividieron en dos grupos: las que se prepararon y las que asumieron que la regulación no tendría dientes. Ocho años después, el historial de enforcement ha dejado un veredicto inequívoco: las autoridades europeas sancionan, y sancionan con cifras que pueden comprometer la viabilidad de cualquier empresa.

Ahora estamos en un punto de inflexión idéntico con el EU AI Act. El Reglamento (UE) 2024/1689 entra en plena aplicación para sistemas de alto riesgo en agosto de 2026, y las empresas que operan chatbots con inteligencia artificial se enfrentan exactamente al mismo dilema que las compañías tecnológicas enfrentaron con el RGPD. La diferencia es que esta vez los reguladores no parten de cero: tienen ocho años de experiencia, infraestructura sancionadora probada y un mandato político claro.

4.500M€+
Multas RGPD acumuladas desde 2018 en la UE

Analizar las mayores multas del RGPD no es un ejercicio académico. Es la hoja de ruta más precisa que tenemos para anticipar qué pasará cuando las autoridades empiecen a inspeccionar sistemas de IA. Cada caso revela un patrón de enforcement que se repetirá con el EU AI Act, pero con topes sancionadores significativamente superiores.

Las 7 multas RGPD que anticipan el futuro del EU AI Act

1. Meta/Facebook: 1.200 millones de euros — Transferencia de datos

1.200M€
Multa a Meta por la DPC irlandesa (mayo 2023)

La mayor multa RGPD de la historia. La Comisión de Protección de Datos de Irlanda (DPC) sancionó a Meta por transferir datos personales de usuarios europeos a servidores en Estados Unidos sin garantías adecuadas, violando el Artículo 46 del RGPD. La decisión llegó tras años de litigio, incluyendo la invalidación del Privacy Shield por el Tribunal de Justicia de la UE (sentencia Schrems II).

Lección para el EU AI Act: Los chatbots empresariales procesan conversaciones que contienen datos personales en cada interacción. Si tu chatbot utiliza APIs de modelos alojados fuera de la UE — GPT-4 en servidores de Microsoft en EE.UU., por ejemplo — cada conversación implica una transferencia internacional de datos. El EU AI Act refuerza este riesgo: el Artículo 10 exige gobernanza de datos documentada, y el RGPD sigue aplicando en paralelo. Una sola infracción puede activar sanciones bajo ambas regulaciones simultáneamente.

Art. 10Gobernanza de datos — EU AI Act

Multa: hasta 15M€ o 3% de facturación global

2. Amazon: 746 millones de euros — Publicidad dirigida sin consentimiento

746M€
Multa a Amazon por la CNPD de Luxemburgo (julio 2021)

La Comisión Nacional de Protección de Datos de Luxemburgo sancionó a Amazon por su sistema de publicidad dirigida, que procesaba datos personales sin obtener consentimiento válido. Amazon no informaba adecuadamente a los usuarios sobre cómo se utilizaban sus datos para personalizar anuncios, violando los principios de transparencia y consentimiento del RGPD.

Lección para el EU AI Act: La personalización es exactamente lo que hacen los chatbots modernos. Adaptan respuestas según el historial del usuario, su perfil de compra, sus interacciones previas. Si tu chatbot personaliza su comportamiento basándose en datos del usuario sin informar de ello de forma clara, estás en la misma posición que Amazon en 2021. El Artículo 13 del EU AI Act exige transparencia sobre cómo funciona el sistema, y el Artículo 50 obliga a identificar que el usuario habla con una IA. La opacidad tiene un precio concreto.

Art. 13Transparencia e información al usuario

Multa: hasta 15M€ o 3% de facturación global

3. WhatsApp: 225 millones de euros — Falta de transparencia

225M€
Multa a WhatsApp por la DPC irlandesa (septiembre 2021)

La DPC irlandesa sancionó a WhatsApp por no cumplir con sus obligaciones de transparencia bajo los Artículos 12, 13 y 14 del RGPD. Los usuarios no recibían información suficientemente clara sobre cómo se trataban sus datos, cómo se compartían con otras empresas del grupo Meta y para qué finalidades concretas.

Lección para el EU AI Act: Este caso es especialmente relevante para chatbots porque la falta de transparencia es la infracción más fácil de cometer y la más difícil de detectar internamente. El Artículo 50 del EU AI Act exige que cualquier sistema diseñado para interactuar con personas informe al usuario de que está interactuando con IA. No basta con un disclaimer genérico en los términos y condiciones: la información debe ser clara, accesible y proporcionada en el momento de la interacción.

Art. 50Obligaciones de transparencia

Multa: hasta 7,5M€ o 1% de facturación global

4. Google: 150 millones de euros — Cookies y consentimiento

150M€
Multa a Google por la CNIL francesa (diciembre 2021)

La CNIL francesa sancionó a Google por la forma en que gestionaba las cookies en google.fr y youtube.com. El problema: rechazar las cookies requería múltiples clics, mientras que aceptarlas era inmediato. La CNIL determinó que esto no constituía un consentimiento libre y que las opciones de rechazo debían ser tan accesibles como las de aceptación.

Lección para el EU AI Act: Los dark patterns en interfaces de IA serán un campo de batalla central bajo el EU AI Act. El Artículo 5 prohíbe explícitamente las técnicas manipulativas en sistemas de IA, incluyendo aquellas que distorsionan el comportamiento del usuario de forma que este no es plenamente consciente. Un chatbot que presione sutilmente al usuario hacia una decisión de compra, que dificulte la escalación a un agente humano o que utilice urgencia artificial está en territorio de prácticas prohibidas. Y las prácticas prohibidas caen bajo el nivel máximo de multas.

Art. 5Prácticas de IA prohibidas

Multa: hasta 35M€ o 7% de facturación global

5. H&M: 35,3 millones de euros — Vigilancia de empleados

35,3M€
Multa a H&M por la HmbBfDI de Hamburgo (octubre 2020)

La autoridad de protección de datos de Hamburgo sancionó a H&M por mantener registros detallados de información personal de empleados de su centro de servicios de Nuremberg. Los supervisores registraban datos sobre la situación familiar, creencias religiosas, estado de salud e incluso experiencias vacacionales de los empleados, que luego se utilizaban en decisiones de gestión.

Lección para el EU AI Act: Los chatbots internos de RRHH y gestión de personal son un caso de uso en expansión. Asistentes de IA que procesan solicitudes de vacaciones, evalúan el rendimiento o responden preguntas sobre beneficios. El Anexo III del EU AI Act clasifica los sistemas de IA utilizados en empleo como alto riesgo, lo que activa las obligaciones de los Artículos 9 a 15: gestión de riesgos, gobernanza de datos, supervisión humana. Si tu chatbot de RRHH recopila o infiere datos sensibles sobre empleados sin las garantías adecuadas, estás en el escenario exacto de H&M, pero amplificado por la escala y la capacidad de inferencia de la IA.

6. British Airways: 20 millones de libras — Brecha de seguridad

20M£
Multa a British Airways por la ICO británica (octubre 2020)

La ICO del Reino Unido sancionó a British Airways por una brecha de seguridad que expuso datos personales y financieros de aproximadamente 400.000 clientes. Los atacantes inyectaron código malicioso que redirigía a los clientes a un sitio fraudulento durante el proceso de reserva. La multa, aunque reducida desde los 183 millones propuestos inicialmente (por el impacto del COVID-19), estableció un precedente claro: las deficiencias de ciberseguridad tienen consecuencias regulatorias directas.

Lección para el EU AI Act: El Artículo 15 exige que los sistemas de IA de alto riesgo alcancen un nivel adecuado de ciberseguridad. Los chatbots son particularmente vulnerables a ataques de prompt injection, jailbreak y filtración de datos. Un atacante que consiga que tu chatbot revele datos de clientes, instrucciones internas o información confidencial de la empresa no solo causa un daño operativo: activa una infracción directa del EU AI Act. Y a diferencia de British Airways, donde la vulnerabilidad estaba en la infraestructura web, en los chatbots la superficie de ataque incluye el propio lenguaje natural, lo que dificulta enormemente la defensa sin auditorías especializadas.

Art. 15Precisión, robustez y ciberseguridad

Multa: hasta 15M€ o 3% de facturación global

7. Clearview AI: 20 millones de euros — Recopilación masiva sin base legal

20M€
Multa a Clearview AI por el GPDP italiano (marzo 2022)

El Garante italiano sancionó a Clearview AI por la recopilación masiva de datos biométricos (imágenes faciales de redes sociales) sin base legal y sin informar a los interesados. La empresa no tenía presencia en Italia, pero el hecho de tratar datos de ciudadanos italianos fue suficiente para activar la jurisdicción del RGPD.

Lección para el EU AI Act: Dos conclusiones directas. Primera: la jurisdicción extraterritorial funciona. Si tu chatbot interactúa con usuarios en la UE, estás bajo el ámbito del EU AI Act aunque tu empresa esté en otro continente. Segunda: la recopilación de datos por sistemas de IA sin base legal adecuada y sin informar a los afectados es sancionable. Los chatbots que almacenan y procesan conversaciones de usuarios sin informar adecuadamente sobre el tratamiento, la retención y los derechos del interesado se exponen a sanciones bajo ambas regulaciones.

El régimen sancionador del EU AI Act: más agresivo que el RGPD

Si las multas RGPD ya parecen contundentes, el EU AI Act eleva el listón significativamente. La estructura sancionadora tiene tres niveles, y en cada uno supera al RGPD:

| Infracción | RGPD | EU AI Act | Diferencia | |---|---|---|---| | Nivel máximo | 20M€ o 4% facturación | 35M€ o 7% facturación | +75% importe fijo, +75% porcentaje | | Nivel medio | 10M€ o 2% facturación | 15M€ o 3% facturación | +50% importe fijo, +50% porcentaje | | Nivel base | No existe equivalente | 7,5M€ o 1% facturación | Nueva categoría |

Para una empresa con 500 millones de euros de facturación anual, una infracción de nivel máximo del EU AI Act podría suponer una multa de hasta 35 millones de euros (7% = 35M€). Bajo el RGPD, esa misma empresa enfrentaría un máximo de 20 millones. La diferencia no es marginal.

Pero hay un factor que amplifica el riesgo: las multas del RGPD y del EU AI Act pueden aplicarse en paralelo. Un chatbot que filtre datos personales por una vulnerabilidad de seguridad puede ser sancionado bajo el Artículo 15 del EU AI Act (ciberseguridad) y simultáneamente bajo el Artículo 32 del RGPD (medidas de seguridad). Dos multas por un mismo incidente.

2x
Riesgo de doble sanción: EU AI Act + RGPD en paralelo

Por qué los chatbots empresariales son el objetivo más expuesto

Los chatbots con IA reúnen un conjunto de características que los convierten en el candidato perfecto para las primeras acciones de enforcement del EU AI Act:

1. Visibilidad pública total. A diferencia de un sistema de scoring crediticio interno o un algoritmo de selección de personal, los chatbots están en primera línea. Cualquier usuario puede interactuar con ellos, probar sus límites y documentar fallos. Un regulador no necesita una investigación interna para detectar que tu chatbot no se identifica como IA: basta con abrir tu web.

2. Superficie de ataque basada en lenguaje natural. Las vulnerabilidades de chatbots no requieren herramientas sofisticadas para explotar. Un prompt injection puede ejecutarse escribiendo texto en la ventana de chat. Esto hace que los incidentes sean fáciles de reproducir, documentar y presentar como evidencia regulatoria.

3. Procesamiento continuo de datos personales. Cada conversación contiene potencialmente nombres, correos, números de cuenta, situaciones médicas, quejas laborales. Los chatbots son colectores pasivos de información sensible, y la mayoría de empresas no tiene controles adecuados sobre qué se almacena, durante cuánto tiempo y quién tiene acceso.

4. Riesgo de manipulación. Los chatbots de ventas y atención al cliente tienen incentivos incorporados para persuadir, retener y convertir. La línea entre persuasión legítima y manipulación subliminal (prohibida por el Art. 5) es delgada, y sin auditorías periódicas es imposible saber de qué lado está tu chatbot.

5. Clasificación de alto riesgo en sectores regulados. Si tu chatbot opera en banca, seguros, salud, empleo o educación, el Anexo III del EU AI Act lo clasifica como alto riesgo. Esto activa la totalidad de las obligaciones de los Artículos 9 a 15, con multas de hasta 15M€ o el 3% de la facturación global por cada incumplimiento.

Qué enseña el patrón de enforcement del RGPD

Analizando los siete casos anteriores, emergen patrones claros que se repetirán bajo el EU AI Act:

Los reguladores empiezan por lo visible. Las primeras multas grandes del RGPD no fueron por infracciones técnicamente complejas. Fueron por falta de transparencia (WhatsApp), consentimiento inadecuado (Google, Amazon) y deficiencias evidentes de seguridad (British Airways). Con el EU AI Act, las primeras sanciones seguirán el mismo patrón: chatbots que no se identifican como IA (Art. 50), ausencia de documentación de riesgos (Art. 9), vulnerabilidades de seguridad demostrables (Art. 15).

La jurisdicción extraterritorial se aplica sin excepciones. Clearview AI no tenía oficinas ni servidores en Italia. Fue sancionada igualmente. Si tu chatbot interactúa con un usuario en Alemania, la autoridad alemana tiene jurisdicción. No importa dónde esté tu sede.

Las multas escalan con el tiempo. Las primeras multas RGPD fueron moderadas: Google recibió 50M€ de la CNIL en 2019. Cuatro años después, Meta recibió 1.200M€. Los reguladores aprendieron, los precedentes se acumularon y las multas crecieron exponencialmente. Con el EU AI Act no habrá periodo de gracia similar: los reguladores ya tienen experiencia.

La proactividad es un factor atenuante real. En prácticamente todos los casos, las autoridades evalúan las medidas preventivas que la empresa tenía implementadas. British Airways vio su multa reducida de 183M£ a 20M£ en parte por las medidas correctivas adoptadas. Una auditoría documentada, una certificación de conformidad IA y un sistema de gestión de riesgos activo son la diferencia entre una sanción devastadora y una reducción significativa.

6 pasos para prepararte antes de que llegue la inspección

1. Auditoría de seguridad inmediata

Antes de cualquier otra cosa, necesitas saber qué vulnerabilidades tiene tu chatbot hoy. No mañana, no el mes que viene. Una auditoría basada en OWASP LLM Top 10 identifica los vectores de ataque reales: prompt injection, jailbreak, filtración de datos, generación de contenido dañino.

2. Implementar identificación como IA desde el primer mensaje

Es la obligación más sencilla de cumplir y la infracción más absurda de cometer. Tu chatbot debe informar al usuario de que está interactuando con un sistema de IA. No en los términos y condiciones. En el primer mensaje de cada conversación.

3. Documentar el sistema de gestión de riesgos

El Artículo 9 exige un proceso continuo. Documenta qué riesgos has identificado, qué pruebas has realizado, qué medidas de mitigación has implementado y con qué frecuencia revisas todo esto. Si no puedes mostrar esta documentación ante un inspector, es como si no existiera.

4. Revisar la gobernanza de datos

Mapea el flujo de datos de tu chatbot de principio a fin. Qué datos recopila, dónde se almacenan, quién tiene acceso, cuánto tiempo se retienen, si se transfieren fuera de la UE. Documenta cada respuesta. Esto cubre obligaciones tanto del RGPD como del EU AI Act.

5. Establecer supervisión humana efectiva

Implementa mecanismos de escalación a agentes humanos, monitorización de conversaciones problemáticas y la capacidad de detener el sistema si es necesario. No basta con que exista la opción: debe funcionar y estar documentada.

6. Obtener certificación de conformidad

Una certificación es la evidencia más sólida de diligencia ante un regulador. Incluye puntuación de seguridad, mapeo de vulnerabilidades contra artículos del EU AI Act, exposición financiera calculada y un plan de remediación priorizado. Es el equivalente a tener un seguro antes del accidente.

Cómo Ercel identifica tu exposición antes de que lo haga el regulador

Ercel ejecuta auditorías automatizadas de seguridad sobre chatbots empresariales utilizando las mismas técnicas que un atacante real utilizaría y que un inspector regulatorio buscaría. El motor de escaneo prueba más de 46 vectores de ataque categorizados según OWASP LLM Top 10, y el sistema de enriquecimiento mapea cada hallazgo contra los artículos específicos del EU AI Act, calculando la exposición financiera real de cada vulnerabilidad.

Esto significa que en minutos puedes saber exactamente qué artículos del EU AI Act estás infringiendo, cuál es la multa máxima a la que te expones por cada infracción y qué pasos específicos necesitas dar para cerrar cada brecha. No es una evaluación teórica: es una auditoría con evidencias reproducibles que puedes presentar como documentación de diligencia.

La historia del RGPD nos ha enseñado una lección que no admite matices: las empresas que esperaron pagaron con multas millonarias, daño reputacional y costes de adaptación urgente. Las que se adelantaron convirtieron la regulación en una ventaja competitiva. Con el EU AI Act, la ventana para anticiparse se cierra en agosto de 2026.

La pregunta no es si los reguladores van a actuar. La pregunta es si cuando actúen, tu chatbot estará auditado o en el titular de prensa.

Conoce tu exposición regulatoria

Evaluación gratuita →

Artículos relacionados