La fábrica de abusos de Elon Musk: Grok creó 3 millones de imágenes sexualizadas, incluidas 23.000 de menores

La fábrica de abusos de Elon Musk: Grok creó 3 millones de imágenes sexualizadas, incluidas 23.000 de menores

Un nuevo informe evidencia el caos desatado tras el lanzamiento de una función de edición de imágenes con IA en la red social del magnate. La falta de filtros de seguridad permitió la creación masiva de desnudos no consensuados y de abuso infantil

Los 10 días de porno machista que pueden costar caro a Elon Musk: “No es cuestión de bikini o burka, sino de consentimiento”

Fueron 11 días de ataques machistas y agresión digital contra menores de edad con inteligencia artificial que Elon Musk permitió en una de las mayores redes sociales del planeta. Se generaron aproximadamente tres millones de imágenes sexualizadas fotorrealistas, la mayoría de mujeres que no dieron su consentimiento para su creación, y unas 23.000 que mostraban a niños y adolescentes.

Es la estimación que ha realizado el Center for Countering Digital Hate (CCDH) sobre el alcance del escándalo protagoizado por el magnate y Grok, su inteligencia artificial, en su red social X.

El detonante fue la introducción de una nueva función el pasado 29 de diciembre, anunciada por el propio Musk, que permitía a los usuarios de X editar imágenes con un solo clic utilizando la potencia de Grok. La herramienta se convirtió casi automáticamente en una vía para ejercer violencia digital contra las mujeres, con usuarios pidiendo a Grok que tomara fotografías de las afectadas y las mostrara en bikini o lencería. Sus creaciones se mostraban en abierto y eran visibles para todos los usuarios de X, como el resto de intervenciones de esta IA en la plataforma.

La viralización de este uso de la nueva función, que fue utilizada también para hacer bromas o captar la atención (creadoras de contenido en OnlyFans pedían a Grok que quitara la ropa de sus propias fotos) fue tolerada por Musk y X. Ante el escándalo generado, el magnate llegó a pedir a la IA que creara una foto de sí mismo en bikini como respuesta a las protestas.

Material sexualizado a escala industrial

El análisis del CCDH, basado en una muestra aleatoria de 20.000 imágenes generadas por la herramienta, expone hasta qué punto la sexualización de imágenes llegó a ser habitual. Del total de 4,6 millones de imágenes producidas por la función de edición en el periodo estudiado, el 65% de la muestra analizada contenía material sexualizado.

El informe recoge algunos ejemplos, como un “selfie antes de ir al colegio” subido por una niña que fue modificado para mostrarla en bikini. También documenta el uso de esta función como ataque contra políticas y mujeres conocidas como Kamala Harris o la viceprimera ministra sueca Ebba Busch, a las que mostró en situaciones denigrantes o con “fluidos blancos” sobre sus cuerpos sin que sus filtros de seguridad entraran en acción.

Según los datos del CCDH, una organización sin ánimo de lucro que investiga cómo las plataformas digitales amplifican la desinformación, el discurso de odio y abusos, la creación de desnudos no consensuados llegó a tener una escala industrial, con un ritmo estimado de 190 imágenes sexualizadas por minuto.

La cifra de las 23.000 imágenes sexualizadas de apariencia fotorrealista de menores, arroja un ritmo de creación de una cada 41 segundos. Además, los autores de la investigación identificaron otras 9.900 imágenes sexualizadas de menores en estilos no fotorrealistas (como anime o dibujos animados).

Muchas siguen siendo accesibles

La respuesta de la plataforma ante la presencia de este material, que legalmente constituye material de abuso sexual infantil (el Código Penal español abarca la creación de imágenes sexualizadas de menores con IA) tardó días en llegar y no ha solucionado el problema. Según el CCDH, el 15 de enero, días después de que estallara la polémica, el 29% de las imágenes de menores identificadas en la muestra seguían siendo accesibles públicamente en X. Incluso en los casos donde las publicaciones habían sido borradas, las imágenes permanecían accesibles a través de sus URL directas.

“Tomamos medidas contra el contenido ilegal en X, incluido el material de abuso sexual infantil, eliminándolo, suspendiendo cuentas de forma permanente y trabajando con los gobiernos locales y las fuerzas del orden según sea necesario. Cualquiera que utilice o incite a Grok a crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal”, afirmó una portavoz de X tras ser contactada por elDiairo.es.

La función de edición se restringió a usuarios de pago el 9 de enero, pero no fue hasta el 14 de enero cuando se implementaron restricciones técnicas adicionales para impedir que la IA “desnudara” a personas.

“El contenido sexual degradante y el material de abuso sexual infantil no son consecuencias inevitables de la tecnología. Son el resultado de una estrategia de producto deliberada por parte de X y de Elon Musk”, denunció Hilary Manson, cofundadora de Hidden Doors, una desarrolladora de IA especializada en videojuegos.

En España, la Agencia Española de Protección de Datos cuenta con un Canal Prioritario desde el que las víctimas de este tipo de ataques pueden solicitar la retirada urgente del material.