Algoritmos para contrataciones y despidos. ¿Son legales las decisiones automatizadas sobre trabajadores?

dav

El big data, los algoritmos y la inteligencia artificial permiten actualmente que el empresario encuentre y procese mucha más información de los trabajadores de la existente hasta ahora (también llamado people analytics). Esto permite la posibilidad de elaborar perfiles automatizados de trabajadores e incluso que la propia tecnología, sustituyendo a los supervisores y responsables de recursos humanos, tome decisiones que tengan efectos legales sobre los trabajadores (contratación, ascensos, despidos, etc…).

Esto que puede sonar ciencia ficción ya es utilizado en empresas extranjeras y nacionales. Amazon utiliza una herramienta para selección de personal a través de Inteligencia artificial y existen consultoras externas de RRHH que ofrecen herramientas para obtener toda la información que existe en internet sobre un candidato para posteriormente ofrecer un diagnóstico perfilado sobre el candidato.

Es decir, las nuevas tecnologías no solamente recogen la información existente del candidato, sino que, además, a través de los algoritmos, establecen una probabilidad de encaje de ese trabajador en el puesto vacante.

perfiles

Es decir, que el algoritmo, en base a las variables introducidas y a los procesos que se hayan decidido en la construcción del algoritmo, establecerá una prelación de cuál es el mejor candidato.

Por tanto, el “big data” no solamente consiste en la acumulación de datos e informaciones, sino que hace referencia también al conjunto de herramientas y sistemas informáticos (algoritmos, machine learning) que analizan dichos datos, buscan patrones recurrentes y correlaciones, con objeto de poder realizar predicciones. El objetivo es la construcción de perfiles de ciudadanos o trabajadores para poder clasificarlos por parámetros introducidos en el propio algoritmo. El principal problema consiste en la posibilidad de que esos perfiles clasifiquen directa o indirectamente a los trabajadores por categorías discriminatorias. Un riesgo que de acuerdo con los expertos es sumamente elevado.

1)            La tecnología parece capaz de inferir ciertas características personales basadas en otros datos. Es decir, aunque se prohíba recabar datos en materia de afiliación sindical, religión, sexo, orientación sexual o discapacidad, los algoritmos son capaces de obtener esta información a través de otros datos. Por ejemplo, la religión o la raza puede estar estadísticamente muy relacionadas con el código postal o el barrio dónde la persona vive. Así pues, tomar decisiones basadas en la ubicación de la vivienda resultará en el fondo una decisión basada en la raza o, incluso, conforme al tiempo dedicado a leer unas noticias en Facebook o Google -y no otras- se puede predecir la afiliación política o sindical. De hecho, en muchos casos, se desconocen las capacidades de un algoritmo a la hora de hacer inferencias estadísticas, lo que supone la “imposibilidad” de conocer si el propio algoritmo está tomando decisiones fundamentadas en información discriminatoria o no.

2)            Sumado a ello, la propia construcción del algoritmo requiere de datos que están sesgados por parámetros discriminatorios. En efecto, el algoritmo toma la realidad como factor de aprendizaje a la hora de procesar datos, lo que implica que los resultados obtenidos de esos datos vendrán a perpetuar sesgos existentes en nuestra sociedad. Por ejemplo, dado que actualmente 9 de cada 10 consejeros en empresas del IBEX 35 son hombres, un algoritmo entenderá que es “más probable” que un hombre encaje mejor como consejero en una de estas empresas –porque así lo “confirma” estadísticamente los datos que posee-.

3)            Cuando un algoritmo está al mando, en general, las minorías siempre estarán en desventaja. La propia ciencia de la estadística otorga más valor a las decisiones tomadas con mayor información disponible. Eso conlleva que en las minorías –raza, religión, orientación sexual, etc.- habrá menos datos disponibles lo que implicará que el algoritmo entienda que tomar una decisión favorable a un colectivo minoritario sea más arriesgado que tomarla a favor de un colectivo mayoritario. Es decir, para seleccionar un candidato de un colectivo minoritario el algoritmo exigirá más cualidades, aptitudes, conocimientos… (por defecto) que para hacerlo con el de un colectivo mayoritario, simplemente por el hecho que es más fácil predecir –estadísticamente- el comportamiento de un perteneciente a este y no a aquel.

En definitiva, el procesamiento automatizado de datos incrementa exponencialmente las posibilidades de vulneración de los derechos de los trabajadores. Con independencia de que finalmente sea el responsable de recursos humanos el que tome una determinada decisión, el hecho de que lo haga basado en un procesamiento automatizado de datos (ej. creación de perfiles de los trabajadores o establecimiento de evaluaciones por parte del algoritmo) provocará un incremento en las probabilidades de que la decisión tomada sea discriminatoria.

En fin, por estas razones, el Reglamento Europeo de Protección de Datos y la nueva LOPDGDD establecen protecciones frente a la construcción automatizada (a través de algoritmos o IA) de perfiles de trabajadores y frente a las decisiones automatizadas que afecten a trabajadores (CONTRATACIÓN, DESPIDO, ASCENSOS, BONUS).

La próxima semana lo analizaremos con la siguiente entrada del Blog: Algoritmos para contrataciones y despidos. ¿Son legales las decisiones automatizadas sobre trabajadores? II

Para saber más sobre el tema podéis consultar mi artículo “La gobernanza colectiva de la protección de datos en las relaciones laborales: big data, creación de perfiles, decisiones empresariales automatizadas y los derechos colectivos.” PUBLICADO en la Revista de Derecho Social n´º 84

Si te interesa el mundo del trabajo y del derecho laboral suscribete gratuitamente al blog!


One thought on “Algoritmos para contrataciones y despidos. ¿Son legales las decisiones automatizadas sobre trabajadores?

Deja un comentario