Algoritmos y derechos laborales
Una participación inexistente o limitada de la clase trabajadora en la transformación digital puede conllevar posiciones reactivas, a las que no debiera aspirar un empresariado medianamente moderno
El siglo en el que vivimos registra una nueva ola de cambios tecnológicos basados en la digitalización, y que han cobrado especial intensidad a partir de los desarrollos de la Inteligencia Artificial. Toda transformación tecnológica ha tenido históricamente impactos sobre el empleo, a menudo conflictivos, si bien esta actual tiene al menos dos singularidades: la velocidad de los cambios y la multidimensionalidad de los efectos.
No es casualidad que el acuerdo del diálogo social que más presión externa recibió en la pasada legislatura fuera la llamada Ley Rider. En ella pactábamos con CEOE y el Gobierno la presunción de laboralidad de las personas que trabajan en la economía de plataforma y se dedican al reparto y, muy relevante, el acceso de la Representación Legal de las Personas Trabajadoras (RLPT) a la información sobre los algoritmos que se utilizan para la gestión de las plantillas. Un ejercicio de transparencia que permitiera conocer cómo se determinan los sistemas de puntuación, asignación de pedidos, o toma de decisiones sobre ascensos y despidos, por citar algunos ejemplos.
Esta norma era cualitativamente muy importante, y de hecho situaba a España en la vanguardia europea sobre cómo proceder a regular el enorme impacto disruptivo que la gestión algorítmica del trabajo puede tener, y de hecho ya tiene. Porque esta es una cuestión que hay que dejar clara. Los desarrollos de la computación, la IA, y el big data han impulsado el uso empresarial de algoritmos complejos que implantan sistemas automatizados de toma de decisiones sobre la organización del trabajo. De momento, de manera parcial y asimétrica, pero es de esperar que cada vez con mayor penetración en distintos tipos de empresas, en espacios regulares de trabajo. Y no solo en las grandes empresas, o en las plataformas digitales laborales. Toda transformación de esta dimensión plantea riesgos, oportunidades, y retos.
En el plano laboral, estamos hablando de decisiones sobre cómo se contrata, se despide, o se promociona; de cómo se asignan tareas y ritmos de trabajo; de sistemas de control, supervisión y vigilancia; de evaluación de clientes sobre el desempeño laboral y la reputación digital de una persona trabajadora. Todo mediante una permanente recopilación de datos de las personas trabajadoras, el procesamiento de estos, y finalmente la toma de decisiones sobre la organización del trabajo en función de la producción de resultados por parte del algoritmo. En primer lugar, cabe cuestionar la patrimonialización del dato y su recopilación por parte del mundo empresarial. Se asume que la gestión algorítmica se basa en el valor del dato, pero ¿ese dato no es patrimonio de la persona trabajadora? No se puede asumir la apropiación unilateral y desvalorizada del dato por parte de la empresa, y los derechos de intervención sindical en lo que tienen que ver con la información y participación, deben disputar el valor del dato en beneficio de las personas trabajadoras.
En segundo lugar, determinar los parámetros sobre los que van a actuar los algoritmos no es una cuestión neutra ni técnica. Primero, porque el uso de los datos presenta riesgos significativos respecto a la privacidad y la intimidad de las personas, y es necesaria una protección legal de un derecho fundamental que, a su vez, debe trasladarse a la negociación colectiva.
Segundo, porque los sistemas de inteligencia artificial pueden evaluar los rendimientos de las personas a través de unas variables, ponderadas bajo determinados criterios, y con resultados automatizables. Y aquí aparece un riesgo clave. Es decir, que la recopilación de datos sobre los trabajadores, su procesamiento y la producción de resultados tras ese procesamiento, conlleve la decisión automática sobre condiciones y organización del trabajo. Si se construyen herramientas utilizando datos de calidad y evitando sesgos, se pueden inducir incluso decisiones más transparentes y justas, menos discrecionales. Pero en sentido contrario, es más que probable que las variables se ponderen en función de estrategias empresariales para la optimización de recursos, aumentos de la productividad, o evaluación de rendimientos. Y esta es una cuestión fundamental. En nuestra opinión, la tecnología no puede tomar decisiones con efectos legales que “pasen por encima” de los derechos y las regulaciones laborales o que refuercen de manera opaca desigualdades o discriminaciones, directas o indirectas.
Por ilustrar con un ejemplo, una empresa puede querer vincular las decisiones sobre incentivos salariales, promociones, o sanciones, en función de variables como pudieran ser el cumplimiento de objetivos fijados, la asistencia diaria al puesto de trabajo, o la evaluación de los clientes. Las decisiones del algoritmo no pueden tener efectos legales automáticos (despidos, promociones, salarios), y deben ser revisadas porque pueden obedecer a razones que en modo alguno pueden tener consecuencias negativas para la persona trabajadora. Siguiendo con el ejemplo, si la no asistencia durante un tiempo al puesto de trabajo se debe a una baja por enfermedad, se estaría discriminando a la persona que ha enfermado.
Las desigualdades de género también pueden verse reforzadas si los criterios y algoritmos utilizados por la IA son fijados para reforzar el premio a la disponibilidad constante (incluso fuera del ámbito laboral), sabiendo que esto refuerza sesgos de género por la pervivencia de la feminización de los cuidados domésticos, y, por tanto, la menor disponibilidad de tiempo que tienen las mujeres, o el mayor uso de los derechos de conciliación a los que se siguen acogiendo. Automatizar decisiones de datos de bajas por reglas dolorosas, con la frialdad del dato, conllevaría unas discriminaciones de género que no pueden ni contemplarse.
En definitiva, el riesgo de aumentar el desequilibrio de poder en las relaciones de trabajo, la mayor opacidad en la toma de decisiones amparándose en la supuesta neutralidad del “gran hermano” digital, el reforzamiento de sesgos y discriminaciones, o los riesgos para la salud y la seguridad producto de la intensificación automatizada de los ritmos de trabajo, deben combatirse.
Para ello se necesita regulación, y se necesita reforzar la capacidad autónoma de los trabajadores para abordar estos contenidos en la negociación colectiva, para lo que hay que fortalecer a las RLPT. La formación y el conocimiento sobre estas materias no es un tema secundario, y apelan directamente a reforzar desde los sindicatos, pero también desde los poderes públicos, estos procesos de aprendizaje, para que las personas que ostentan una responsabilidad democrática y un mandato legal y constitucional puedan ejercerlo de manera efectiva, y no desde el voluntarismo. España tiene una disonancia entre las responsabilidades a las que emplaza a la representación sindical de la clase trabajadora y las herramientas que pone a su disposición para poder ejercerlas.
Es necesario adecuar las leyes de protección de datos a las realidades laborales, de la misma forma que toda norma contra la discriminación y en favor de la igualdad efectiva vinculada a cualquier factor de desigualdad tiene que contemplar su aplicabilidad en el ámbito laboral y productivo, a la luz de la nueva realidad tecnológica. Si no, estas normas pueden quedarse como un brindis al sol. Porque aquí subyace una cuestión clave. Las causas protegidas suponen una elección moral, y finalmente política, sobre cómo organizar una sociedad que en algunos casos, ha costado siglos implantar. Desvincular esta opción moral del ámbito de decisión de la Inteligencia Artificial, por atribuirla una supuesta neutralidad o inocuidad en su aplicación una marcha atrás en la extensión de derechos laborales, una verdadera distopía tecnológica.
La obsesión anti-regulatoria que jalona las ideologías más asalvajadas del postneoliberalismo son extremadamente peligrosas, y pueden dejar sin efecto buena parte de toda la legislación laboral y social, amparándose en el fetiche digital. La norma tampoco lo va a poder todo, y es necesario que enmarque, impulse y empodere a las partes que luego están llamadas a su concreción en la negociación colectiva. Nos referimos a disponer de los conocimientos, las herramientas, los derechos y deberes de información y consulta en todos los procesos de transformación digital y en la implementación de estos métodos, con especial atención a sus potenciales impactos sobre el empleo y las condiciones de trabajo.
Una participación inexistente o limitada de la clase trabajadora en la transformación digital puede conllevar posiciones reactivas, a las que no debiera aspirar un empresariado medianamente moderno. Por el contrario, una gobernanza proactiva y sindicalizada sobre los cambios tecnológicos en las empresas es fundamental ante unos procesos que no son reversibles y con efectos multidimensionales en el ámbito laboral y en la propia configuración social.