La UE abre una investigación formal contra X sobre Grok: cuando la IA se convierte en un riesgo sistémico en el sentido del DSA

La UE abre una investigación formal contra X sobre Grok: cuando la IA se convierte en un riesgo sistémico en el sentido del DSA

Europa ya no se limita a abordar publicaciones y moderación: ahora apunta al motor. La Comisión Europea ha iniciado un procedimiento formal contra X para examinar cómo la plataforma ha implementado Grok en la UE y si la IA ha sido evaluada, regulada y “mitigada” como exige la Ley de Servicios Digitales (DSA).

El núcleo del asunto es simple: Grok genera texto e imágenes y puede contextualizar publicaciones, pero su uso se ha asociado a contenidos ilegales y/o dañinos, incluyendo deepfakes sexuales no consensuados, contenido potencialmente relacionado con abusos contra menores, y otras formas de odio o acoso.

La Comisión explica que quiere verificar si X, como VLOP (Very Large Online Platform), ha cumplido con sus obligaciones del DSA en cuanto a la evaluación de riesgos sistémicos, la implementación de medidas de mitigación, y, aquí está la clave, la producción y difusión de contenidos ilegales a través de las funciones de IA.

Bruselas no quiere una promesa, sino un método. La investigación debe determinar si X ha realizado y transmitido una evaluación ad hoc de los riesgos relacionados con Grok antes de su despliegue, cubriendo adecuadamente riesgos como la difusión de contenidos ilegales, la violencia de género y los daños al bienestar, y evaluado el impacto de una mayor dependencia en los sistemas de recomendación “basados en Grok” sobre el riesgo sistémico global.

En otras palabras: no se trata de “Grok se ha descontrolado” — es “¿Grok se lanzó como un cambio de arquitectura que requiere un protocolo de seguridad a nivel de plataforma?”

Un contexto pesado: X ya sancionada y bajo investigación desde 2023

Este procedimiento se produce en un contexto donde X ya está bajo presión regulatoria. La Comisión había abierto una investigación en diciembre de 2023 sobre varios aspectos del DSA (transparencia, mecanismos de denuncia, acceso a datos para investigadores, etc.).

Y, lo más importante: X ya ha sido condenada a una multa de 120 millones de euros en diciembre de 2025 por incumplimientos del DSA relacionados con la transparencia (como el diseño engañoso del “tick azul”, transparencia en publicidad, acceso para investigadores).

Lo que X enfrenta: una investigación “DSA” que podría ser muy negativa

El DSA otorga a la Comisión un arsenal: solicitudes de información, entrevistas, inspecciones, medidas provisionales, aceptación de compromisos correctivos — o decisión de no conformidad. En caso de violación, las sanciones pueden alcanzar hasta el 6% de la facturación mundial.

Cabe señalar: el expediente se lleva a cabo en coordinación con la autoridad irlandesa Coimisiún na Meán, en el marco de la gobernanza del DSA (país de establecimiento).

Esta investigación tiene un alcance que va más allá de X. Bruselas envía una señal a las plataformas: integrar un modelo generativo en el producto (y en la recomendación) equivale a modificar el “sistema nervioso” del servicio. Y en la lógica del DSA, un sistema nervioso debe ser probado, documentado y asegurado — especialmente cuando puede amplificar las violaciones de derechos fundamentales.

La pregunta implícita es desafiante: ¿se puede implementar una IA de consumo masivo a la escala de una VLOP como si se tratara de una actualización de producto? El DSA responde bastante que no: a ese nivel, es una decisión de gobernanza, no una experimentación.


Scroll to Top