Como sabéis llevo años analizando los efectos de tener un «algoritmo como jefe». En este mismo blog he publicado algunas entradas sobre este tema. Y también recientemente he publicado un libro sobre el tema titulado «Algoritmos productivos y extractivos» Cómo regular la digitalización para mejorar el empleo e incentivar la innovación”. Sin embargo, existen suficientes novedades como para actualizar el tema. En primer lugar, existe una interesante pionera Sentencia del TJUE que si bien no trata expresamente un tema laboral, sus conclusiones en aplicación del art. 22 RGPD son aplicables cualquier ámbito incluyendo el laboral. En segundo lugar, tenemos algunas decisiones de autoridades de protección de datos. Y en tercer lugar tenemos algunas sentencias de tribunales que analizan la licitud del uso de sistemas de IA para despedir a personas trabajadoras.
SUPUESTO DE HECHO
En esta entrada se analiza la posibilidad de que la empresa use un sistema automatizado (llámese algoritmo, IA o programa informático) para evaluar la calidad del trabajo del trabajador o su productividad y con base a dicha evaluación decidir el despido del trabajador.
El ejemplo más conocido es el control que realiza Amazon a los mozos de almacén midiendo el número y velocidad de cajas empaquetadas, los pasos dados en un día dentro de los almacenes, las pausas para ir al baño o socializar, etc. Así, mediante pulseras inteligentes o chips en las botas se realiza un exhaustivo recuento del trabajo prestado y junto otras variables se elabora un índice de productividad que es usado para generar avisos automáticos (la pulsera vibra o se le envía un mensaje a la misma) o se despide de forma automatizada a las personas que no alcanzan una mínima productividad. De acuerdo con los datos, el 10% de los trabajadores de almacén de Amazon en EE. UU. han sido despedidos por el índice de productividad.
Cuando los ritmos de trabajo están marcados por un algoritmo poco espacio queda para la salud laboral. Así, documentos internos de Amazon analizados por Reveal indican que durante 2018 Amazon tuvo el doble de trabajadores accidentados de forma grave que la media nacional para trabajos similares. Asimismo, varios estudios han demostrado que las trabajadoras sujetas a sistemas de reputación digital no informan de casos de acoso sexual por parte de clientes por miedo a las represalias en su evaluación.
STJUE de 7/12/2023
Como he expuesto en otros lugares, la principal regulación en materia de decisiones automatizadas que tienen efectos jurídicos, lleva años en vigor, es el art. 22 del RGPD (en conjunto con art. 13 y 14 de dicho reglamento) Este art. 22 del RGPD establece como regla general el «derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él». Concretamente, este derecho a no ser objeto es interpretado como una prohibición para la empresa para tomar decisiones basadas «únicamente» en el tratamiento automatizado de datos.
El conflicto surge respecto a en qué casos la decisión está basada «únicamente» en el tratamiento automatizado y en qué casos la intervención humana en la decisión desvirtúa el «únicamente» y de esta forma el art. 22 del RGPD deja de ser aplicable.
En este conflicto resulta de utilidad la STJUE de 7/12/2023. La sentencia analiza el caso de un consumidor que vio rechazado la solicitud de un crédito por parte de una entidad financiera porque la entidad financiera usaba un credit score («probabilidad de devolución del crédito») proporcionado por una tercera empresa. La empresa tercera producía mediante medios automatizados dicha probabilidad. En este contexto, el TJUE considera aplicable el art. 22 RGPD aunque la decisión final fuera tomada por un ente distinto al que producía la puntuación automatizada. Concretamente, el TJUE valora que el art. 22 ET hace referencia no solamente a que la decisión sea basada «únicamente» en el tratamiento automatizado, sino que el art. 22 es aplicable también en caso de la «elaboración de perfiles». De esta forma, parece indicar que aunque la decisión tuviera intervención humana, la mera elaboración del perfil de forma totalmente automatizada implicaría la aplicación dle art. 22 RGPD.
DECISIÓN AUTORIDAD ITALIANA DE PROTECCIÓN DE DATOS
Una segunda cuestión interesante es la aplicación del art. 22 RGPD en el caso de Foodihno, una empresa de reparto a domicilio de comida, donde la autoridad de protección de datos italiana determinó que asignar a los riders para hacer repartos conforme a la reputación digital fue considerado una decisión totalmente automatizada. Y por tanto de nuevo aplicable el art. 22 RGPD.
DESPIDOS BASADOS EN ÍNDICES DE PRODUCTIVIDAD GENERADOS POR UN ALGORITMO: CASO ÁMAZON
En Polonia varias sentencias de la jurisdicción laboral (Sentencia del Tribunal regional de Poznan de Primera Instancia de 6 de febrero de 2019 y del Tribunal de Segunda Instancia de 2 de julio de 2020 Caso Gorajski vs Amazon) han considerado que el sistema de productividad de Amazon no es causa válida para despedir. Por dos razones; 1) porque el sistema hace competir unos trabajadores con otros lo que por diseño es un sistema en el que siempre alguien acaba despedido; 2) por falta de transparencia sobre su funcionamiento, lo que impide que el sistema sea complemente verificable. Es decir, las dificultades para conocer exactamente y con pleno conocimiento cómo el algoritmo calcula su índice de productividad impide al trabajador saber exactamente y de forma clara cuál es el rendimiento debido, lo que le impide cumplir. En efecto, el rendimiento mínimo varía dependiendo de las necesidades de la empresa y del rendimiento del resto de trabajadores. Por su parte, el propio juez no puede verificar la objetividad ni razonabilidad del sistema de productividad por falta de trasparencia.
Si te interesa los efectos de la IA en el mundo laboral o en el Derecho del trabajo te recomiendo el libro Algoritmos productivos y extractivos» Cómo regular la digitalización para mejorar el empleo e incentivar la innovación, publicado en 2023 en Aranzadi.