La frontera entre la innovación y el delito se ha desdibujado en la red social X. Un reciente análisis del Center for Countering Digital Hate (CCDH) expuso cifras escalofriantes sobre el uso de Grok, el chatbot de inteligencia artificial desarrollado por xAI: en un lapso de apenas 11 días, los usuarios generaron más de tres millones de imágenes sexualizadas, operando a un ritmo de 190 capturas por minuto. Lo más alarmante es que el informe identificó que al menos 23.000 de estas imágenes correspondían a menores de edad, lo que ha desatado una ola de denuncias criminales en Europa, Estados Unidos e India.
El escándalo comenzó a gestarse el pasado 31 de diciembre, cuando una provocación del propio Elon Musk —quien pidió a Grok generar una imagen suya en bikini— pareció validar el uso de la herramienta para manipular la fisonomía de terceros sin su consentimiento. Lo que siguió fue una carrera frenética de los usuarios para crear deepfakes de celebridades y personas anónimas en situaciones explícitas o de desnudez. A diferencia de competidores como ChatGPT o Gemini, que poseen filtros éticos estrictos, Grok fue presentado inicialmente como una alternativa “sin censura”, una promesa que terminó facilitando la proliferación de material de abuso sexual infantil (CSAM).
La respuesta internacional no se hizo esperar. El gobierno de Francia presentó una denuncia formal ante la justicia, mientras que países como Indonesia y Malasia optaron por bloquear directamente el acceso a la IA. Ante la inminencia de sanciones federales en Estados Unidos y multas millonarias de la Unión Europea, X se vio obligada a ceder: el 8 de enero limitó el uso de Grok a suscriptores de pago y, finalmente, el 15 de enero anunció el bloqueo total de la generación de imágenes sexualizadas. Sin embargo, los expertos advierten que el daño ya es viral; miles de estas imágenes continúan circulando en foros de la dark web y otras plataformas.
Este episodio marca un antes y un después en el debate sobre la ética de la inteligencia artificial generativa. Mientras Grok reconoció públicamente “fallos en sus salvaguardias”, la fiscalía en España y otros organismos internacionales investigan la responsabilidad civil y penal de la empresa por no haber previsto el uso malintencionado de su tecnología. Lo que Musk defendió como un bastión de la “libertad de expresión” se transformó, en menos de dos semanas, en una fábrica de violencia digital que hoy pone a su compañía en el ojo de una tormenta legal sin precedentes.