Tech
La Comisión Europea investiga a X por los graves riesgos de su IA ‘Grok’ para generar contenido sexual ilícito
La Comisión Europea ha abierto este lunes una investigación formal contra la red social X por los riesgos asociados a su inteligencia artificial, Grok. El procedimiento se centra en la capacidad de la herramienta para generar y distribuir imágenes sexualizadas sin consentimiento y otro contenido potencialmente ilegal, incluyendo material que podría calificarse de abuso sexual infantil.
La investigación, anunciada el 26 de enero de 2026, evaluará si X cumplió con sus obligaciones bajo la Ley de Servicios Digitales (DSA) para examinar y mitigar los riesgos sistémicos antes del lanzamiento de Grok en la Unión Europea. Bruselas señala que estos peligros “parecen haberse materializado”, en referencia a la polémica generada en las últimas semanas por la difusión de imágenes explícitas de mujeres y niños creadas por la IA.
“Investigararemos si X cumplió con su obligación de realizar una evaluación de riesgos adecuada y de producir un informe ad hoc sobre las funcionalidades de Grok antes de su lanzamiento”, declaró la Comisión en un comunicado.
Presión creciente y medidas cautelares
La investigación no parte de cero. Incluso antes de formalizarla, Bruselas había ordenado a X que conservara toda la documentación interna relacionada con Grok a lo largo de 2026. Esta orden se enmarca en una investigación más amplia sobre la política de la plataforma contra los contenidos ilegales, que ahora se amplía y prioriza debido a la gravedad de los nuevos hechos.
La situación ha traspasado el ámbito regulatorio: el Gobierno de Francia ya ha presentado una denuncia judicial contra la empresa por la generación de estas imágenes. Este caso se suma a otros episodios controvertidos relacionados con Grok, como la negación o “blanqueo” del Holocausto que la IA propagó a finales de 2025.
Fuentes comunitarias reconocen que X ha tomado algunas medidas para frenar la diseminación de este contenido a posteriori, tras el escándalo y la presión de Bruselas. Sin embargo, subrayan que la investigación “va más allá” de las imágenes concretas y apunta a un problema estructural en la arquitectura de la plataforma y su IA.
Consecuencias potenciales y otro frente abierto
Si la Comisión demuestra que X infringió la DSA, la compañía podría enfrentarse a multas de hasta el 6% de su facturación global anual. La plataforma ya fue sancionada en diciembre con 120 millones de euros por incumplimientos previos de transparencia relacionados con su sistema de verificación azul y el acceso a datos para investigadores.
En paralelo, Bruselas prorrogó este mismo lunes otra investigación en curso desde 2023, que analiza si los sistemas de recomendación de contenido de X –que la compañía planea cambiar por uno basado en Grok– cumplen con las obligaciones de gestión de riesgos de la DSA.









