
Meta cierra el centro de moderación de contenidos de Facebook e Instagram en Barcelona
La empresa, Telus Digital, está actualmente investigada por la Justicia y carga con diversas sentencias que la hacen responsable de las secuelas mentales de sus trabajadores tras visionar las publicaciones de estas redes sociales
El abogado de los moderadores de Facebook: “Muchos han tenido intentos de suicidio”
La empresa que se encargaba de moderar los contenidos para Meta, Telus Digital, ha comunicado esta mañana a sus cerca de 2.000 trabajadores que cierra el centro que tiene en la Torre Agbar de Barcelona. La compañía ha explicado a través de una carta -a la que ha tenido acceso elDiario.es- que Meta ha decidido prescindir de los servicios de la subcontrata y que, por tanto, a partir de este mismo 3 de abril “en adelante y hasta nuevo aviso”, se concederá a los centenares de trabajadores un permiso retribuido.
Durante el tiempo que dure esta situación, los centenares de empleados seguirán percibiendo su sueldo, pero no tendrán acceso a las instalaciones de la empresa ni a sus correos corporativos.
La empresa (primero CCC Barcelona Digital Services y luego absorbida por Telus Digital) ha enviado a casa esta misma mañana a la plantilla, según han explicado trabajadores a elDiario.es. “Debido a la confidencialidad y seguridad de las operaciones de nuestro cliente, y por requerimiento de éste, las plataformas de revisión de contenidos han quedado cerradas”.
La empresa está actualmente siendo investigada por la Justicia después de que varios trabajadores denunciaran “secuelas mentales” derivadas de sus jornadas de trabajo. Así lo determinó el Juzgado de lo Social 28 de Barcelona, sentencia que fue ratificada por el Tribunal Superior de Justicia de Catalunya, que reconoce como accidente laboral los trastornos de un empleado.
El hombre, representado por el abogado Francesc Feliu del Espacio Jurídico Feliu Fins, trabajaba como moderador de contenidos en esta empresa desde septiembre de 2018 y estuvo de baja de mayo de 2019 a febrero de 2021, con “ataques de pánico, conductas de evitación, aislamiento en el domicilio y rumiaciones hipocondriformes, sensación de disfagia, despertares nocturnos e importante tanatofobia”.
En su trabajo tenía que clasificar contenidos para que los inadecuados no llegaran a publicarse, y como miembro del equipo de ‘high priority’, tenía que ver contenido relacionado con terrorismo, suicidios, automutilaciones, decapitaciones de civiles a manos de grupos terroristas y torturas.
“Cada escena la tenía que ver el actor varias veces, de manera completa, para asegurarse de que la política aplicada a ese contenido gráfico era la adecuada”, remarca el juez, que añade que la web de la empresa califica a sus trabajadores como héroes no reconocidos en Internet por su trabajo de limpiar las redes de contenido inadecuado.
Tras lograr varias victorias en los juzgados sociales, el letrado al frente de la causa dirige ahora una acusación de la primera causa penal abierta en Europa por los efectos devastadores en la salud mental de los moderadores de contenidos de redes sociales.