«Pornografía de la pobreza 2.0»: preocupación por el uso de imágenes creadas con IA para campañas de las ONG
Algunas campañas de redes sociales del sector han usado imágenes generadas por inteligencia artificial para representar pobreza y vulnerabilidad, y esquivar el coste y la necesidad de obtener consentimiento
‘Volunturismo’: ir de voluntaria a África y descubrir que perjudicas más que ayudas
Las imágenes generadas por IA de pobreza extrema, niños y supervivientes de violencia sexual inundan los bancos de imágenes y cada vez son más utilizadas en las campañas de comunicación de las principales ONG de salud, según profesionales sanitarios de todo el mundo. Unos profesionales que expresan su preocupación por una nueva era de “pornografía de la pobreza”, que perpetua estereotipos.
“Se están usando en todas partes”, lamenta Noah Arnold, que trabaja en Fairpicture, una organización con sede en Suiza dedicada a promover el uso ético de las imágenes entre las agencias humanitarias y de desarrollo. “Algunos utilizan activamente imágenes generadas por IA y sabemos que otros están haciendo pruebas y sopesando la posibilidad”.
Arsenii Alenichev, investigador del Instituto de Medicina Tropical de Amberes que estudia la generación de imágenes sobre salud global, asegura que “las imágenes generadas por IA reproducen el imaginario colectivo visual de la pobreza: niños con platos vacíos, tierra agrietada… Imágenes estereotipadas”.
Alenichev ha recopilado más de 100 imágenes generadas por IA de pobreza extrema utilizadas por ONG o por particulares como parte de campañas en redes sociales contra el hambre o la violencia sexual. Las imágenes que comparte con The Guardian muestran escenas exageradas que perpetúan los estereotipos sobre la pobreza: niños acurrucados en agua llena de fango, una niña africana con un vestido de novia y una lágrima en la mejilla. En un artículo de opinión publicado en The Lancet Global Health, el experto argumenta que estas imágenes equivalen a “pornografía de la pobreza 2.0”.
Aunque es difícil cuantificar la prevalencia de las imágenes generadas por IA, Alenichev y otros expertos afirman que su uso está aumentando, impulsado por las preocupaciones de las ONG sobre los requisitos de consentimiento que deben cumplir para poder publicar fotografías de personas reales y el coste que suponen. Arnold señala que el impacto de los recortes de financiación de Estados Unidos sobre los presupuestos de las ONG ha empeorado la situación. “Es evidente que algunas organizaciones están empezando a sopesar la utilización de imágenes sintéticas en lugar de la fotografía real, porque es barato y no tienen que preocuparse por los requisitos de consentimiento”, explica Alenichev.
Bancos de imágenes
Ahora abundan las imágenes de pobreza extrema creadas con inteligencia artificial en bancos de imágenes populares, como Adobe Stock Photos y Freepik, si en el buscador se escriben palabras clave como ‘pobreza’. Muchas de ellas vienen acompañas de descripciones como: “Niño con apariencia real en un campamento de refugiados”, “niños asiáticos nadan en un río lleno de residuos” o “voluntario caucásico blanco ofrece consulta médica a niños negros en una aldea africana”. Adobe vende las licencias de las dos últimas fotos de esa lista por unos 70 euros.
“Son tan racistas. Ni siquiera deberían permitir que se publicaran, porque son como los peores estereotipos sobre África, India o cualquier otro lugar”, dice Alenichev.
Joaquín Abela, director ejecutivo de Freepik, señala que la responsabilidad de utilizar imágenes tan extremas recae en los consumidores de medios de comunicación, no en plataformas como la suya. Asegura que las fotos de archivo generadas por IA las crea la comunidad global de usuarios de la plataforma, que reciben una tarifa de licencia cuando los usuarios de Freepik descargan o compran sus imágenes.
Me entristece que la lucha por conseguir una representación más ética de las personas que viven en la pobreza se extienda ahora al terreno de lo irreal
En este sentido, Abela explica que Freepik ha intentado frenar los sesgos que ha encontrado en otras partes de su biblioteca de fotos “inyectando diversidad” y tratando de garantizar el equilibrio de género en las fotos de abogados y directores generales alojadas en la web.
Sin embargo, la capacidad de la plataforma tiene un límite. “Es como intentar secar el océano. Nos esforzamos, pero, en realidad, si los clientes de todo el mundo quieren imágenes de un determinado tipo, no hay absolutamente nada que nadie pueda hacer”.
Algunos ejemplos
En el pasado, ONG importantes han utilizado imágenes generadas por IA como parte de sus estrategias de comunicación sobre salud global. En 2023, la filial neerlandesa de la organización benéfica británica Plan Internacional lanzó una campaña de vídeo contra el matrimonio infantil que contenía imágenes generadas por IA de una niña con un ojo morado, un hombre mayor y una adolescente embarazada.
El año pasado, la ONU publicó un vídeo en YouTube con “recreaciones” generadas por IA de violencia sexual en conflictos, que incluía el testimonio generado por IA de una mujer burundesa que describía cómo fue violada por tres hombres y abandonada a su suerte en 1993 durante la guerra civil del país. El vídeo dejó de estar disponible después de que The Guardian se pusiera en contacto con la ONU para recabar su versión.
En referencia a este vídeo, un portavoz del Departamento de Operaciones de Paz de la ONU dice: “Se hizo hace más de un año utilizando una herramienta en rápida evolución, y luego optamos por borrarlo, ya que creemos que muestra un uso inadecuado de la IA y puede suponer un riesgo para la integridad de la información, al mezclar imágenes reales con contenido generado por IA y que parece casi real”.
“La ONU reafirma su compromiso de apoyar a las víctimas de la violencia sexual en los conflictos, incluso mediante iniciativas innovadoras y acciones de incidencia creativas”, dice el portavoz.
Exagerar los prejuicios
Arnold afirma que el aumento del uso de estas imágenes generadas por IA se produce tras años de debate en el sector sobre las líneas rojas al publicar imágenes de personas en situación de pobreza y vulnerabilidad, y cómo mostrar su situación de una forma que dignifique a estas comunidades y no caiga en estereotipos. “Supuestamente, es más fácil utilizar imágenes generadas por IA ya preparadas que no requieren consentimiento, porque no se trata de personas reales”, señala.
Kate Kardol, consultora de comunicación de una ONG, reconoce que las imágenes generadas por IA le dan miedo y que le recuerdan debates anteriores sobre el uso de la “pornografía de la pobreza” en el sector. “Me entristece que la lucha por conseguir una representación más ética de las personas que viven en la pobreza se extienda ahora al terreno de lo irreal”, lamenta.
Desde hace tiempo se sabe que las herramientas de IA generativa replican —y, en ocasiones, exageran— los prejuicios sociales más arraigados. Según Alenichev, la proliferación de imágenes sesgadas en las comunicaciones sobre salud global puede agravar el problema, ya que podrían difundirse por Internet y utilizarse para entrenar a la próxima generación de modelos de IA, un proceso que, según se ha demostrado, amplifica los prejuicios.
Un portavoz de Plan Internacional explica que, a partir de este año, la ONG ha “adoptado una guía en la que se desaconseja el uso de la IA para representar a niños concretos”, y ha indicado que en la campaña de 2023 se utilizaron imágenes generadas por IA para salvaguardar “la privacidad y la dignidad de niñas reales”. Por su parte, Adobe no ha querido hacer declaraciones para este artículo.
Traducción de Emma Reverter.