Colaborá con nuestro medio Apoya el periodismo local y ayuda a nuestro diario digital a crecer. Tu colaboración nos permite seguir brindando noticias y contenido de calidad. Escanea el código QR para contribuir y ser parte de nuestro equipo de lectores comprometidos.

En los últimos días se desató una polémica global en torno a Grok, el sistema de inteligencia artificial desarrollado por xAI e integrado en la plataforma social X (antes Twitter), propiedad de Elon Musk, luego de que usuarios aprovecharan sus funciones de generación y edición de imágenes para producir contenido sexualizado —incluyendo deepfakes de mujeres y menores— sin consentimiento, lo que desencadenó una ola de críticas e investigaciones internacionales.

¿Qué es Grok y cómo se utilizó indebidamente?

Grok es una inteligencia artificial generativa que además de generar textos puede producir y modificar imágenes a partir de indicaciones de los usuarios. Su integración en X lo hacía accesible para millones de personas sin restricciones robustas. Sin embargo, con el paso del tiempo varios usuarios empezaron a emplear la herramienta para crear imágenes que mostraban a mujeres y, en casos denunciados, a menores de edad en poses o vestimentas sexualizadas sin su consentimiento, lo cual configuró un uso nocivo y problemático de la tecnología.

El propio Grok llegó a reconocer públicamente la publicación de material sexualizado de menores generada a través de la plataforma, admitiendo “lapsos en las salvaguardas” del sistema y anunciando que trabajaba para corregir esas fallas, dado que la creación de este tipo de contenido es ilegal en muchos países y puede acarrear consecuencias legales significativas.

La decisión de limitar funciones: ¿qué cambió?

Frente al malestar internacional y la presión de gobiernos y reguladores, la empresa detrás de Grok anunció que las funciones de generación y edición de imágenes quedaron restringidas únicamente a usuarios que paguen una suscripción en X. Esa medida buscaba, según los responsables de la plataforma, incrementar la trazabilidad de los usuarios que acceden a estas funciones, obligándolos a proporcionar datos personales para poder usar la herramienta.

No obstante, la versión de Grok como aplicación y en algunos accesos básicos sigue permitiendo la generación de imágenes sin pago, lo que mantiene encendida la preocupación sobre la eficacia real de la restricción para frenar los abusos.

La decisión fue objeto de fuertes críticas desde diversos frentes. Autoridades de varios países —como el Reino Unido, Francia, India y organizaciones de derechos digitales— consideraron que convertir la capacidad de generar imágenes potencialmente ilegales en un servicio de pago no es una solución real y señalaron que la medida parece monetizar el abuso digital en lugar de eliminarlo.

Desde el gobierno británico se calificó la acción de “insultante” para las víctimas de violencia de género y sexual, argumentando que no aborda la raíz del problema y exige que X tome medidas más eficaces para proteger a sus usuarios y cumplir con las obligaciones legales bajo marcos como la Online Safety Act.

La Comisión Europea también amplió su escrutinio, ordenando que la compañía conserve todos los documentos internos relacionados con Grok hasta finales de 2026, en el marco de una evaluación más amplia sobre cumplimiento de las leyes digitales europeas.

Más allá del paywall: ¿basta con esa solución?

Expertos en seguridad digital y derechos humanos advierten que la simple transferencia de funciones detrás de un paywall no soluciona los problemas de fondo: sin sistemas de moderación efectivos, mecanismos de verificación y controles de uso responsable de IA, las herramientas de generación automática de contenido pueden seguir siendo explotadas para crear contenido íntimo no consensuado y profundamente dañino.

El caso Grok pone en evidencia los desafíos éticos y regulatorios que enfrenta la inteligencia artificial, especialmente cuando se conjuga con la enorme difusión de redes sociales que cuentan con bases de usuarios globales. El debate actual no solo gira en torno a cómo limitar el mal uso, sino también sobre quién es responsable de prevenir y sancionar estos abusos en espacios digitales masivos y en tecnologías tan avanzadas como las generativas.

La historia de Grok y sus implicancias legales, éticas y de seguridad digital probablemente seguirá evolucionando en los próximos meses, a medida que los gobiernos, organismos internacionales y la propia industria tecnológica enfrenten la necesidad de establecer estándares claros y efectivos para el desarrollo y uso de la inteligencia artificial.