Laboral

Ser fitxat o no ser fitxat: en mans de l’algoritme

Ser fitxat  o no ser fitxat:  en mans de l’algoritme
5 min

“Fer que la maquinària es col·lapsi”. Aquest és el pla del Mateo i l’Olga, ell de 20 anys i ella de 60, quan decideixen presentar una sol·licitud a Google per poder accedir a una oferta de feina. El procés entre aquests dos possibles empleats i la seva entrada a la companyia està mediat per un algoritme. L’objectiu de tots dos és intentar hackejar-lo a través d’una carta de presentació en què hi han escrit tot el que creuen que la intel·ligència artificial no serà capaç d’entendre, fent servir un llenguatge filosòfic i literari. Els dos personatges i la seva història formen part del que narra Belén Gopegui a la novel·la Quédate este día y esta noche conmigo (Literatura Random House, 2017) i, malgrat que pot semblar el relat d’un món utòpic, el que planteja no s’allunya de la realitat del que està passant avui en moltes grans empreses, on aterren cada cop més aplicacions basades en algoritmes. Aquest software s’utilitza tant en els processos de selecció de futurs empleats com en el control i l’organització posteriors mentre treballen.

Però el que a primer cop d’ull pot semblar la manera més imparcial de triar, per exemple, un empleat entre mil candidats possibles, ha despertat dubtes entre els que ja hi treballen.“Jo ho he comentat en alguna reunió. Em preocupa que estiguem introduint-hi [a l’algoritme] el perfil d’una persona i que busqui candidats en relació amb el que hi hem introduït. El problema és que no sabem què hi ha al darrere, és a dir, a partir de quins elements l’aplicació està buscant els candidats que s’assemblen. A més, ho despersonalitza tot, perquè reduïm les persones a conceptes”. L’Amador (nom fictici) és un treballador de 27 anys que en l’argot dels recursos humans s’anomena recruiter. És a dir, un caçatalents. A través de la multinacional Randstad, treballa per al departament de recursos humans d’una de les principals companyies de telefonia mòbil de l’Estat, que ha externalitzat aquesta àrea.

Aquest mes d’abril, ell i els seus companys començaran a utilitzar una aplicació, o software, basada en algoritmes que permet construir el perfil del candidat ideal a partir de les dades que ha trobat a internet. Un cop el candidat arriba, l’aplicació contrasta el model amb el que l’empresa està buscant per cobrir les seves vacants: si coincideix, passa el procés. Si no, se’l descarta. Com? L’Amador serà l’encarregat de donar a l’aplicació les dades necessàries perquè li seleccioni possibles candidats. “Jo li puc dir que un treballador ideal és Pepito Pérez, i l’algoritme m’oferirà tot el que sigui similar”, explica.

Fins aquí, reconeix, tot sembla fàcil. De fet, explica que la proliferació d’aplicacions així en un departament com el de recursos humans es deu al fet que les empreses veuen aquesta tecnologia com una eina que permet “agilitzar” els processos i “fer-los més eficients”. “Els perfils molt tecnològics, per exemple, són molt difícils de trobar, i amb aplicacions així és més fàcil”, diu. Ara bé, també assegura que aquest sistema està ple d’ombres. “El que no sabem és quins paràmetres hi ha rere l’algoritme i, per tant, no sabem si els perfils que a mi m’oferirà per cobrir les ofertes de feina han estat seleccionats sota criteris esbiaixats”, diu, i posa d’exemple el biaix de gènere, però també el racial.

Facebook -ara batejada com a Meta-és una de les empreses que han destacat per la introducció d’algoritmes així. Des del 2017, la companyia de Mark Zuckerberg permet que les empreses que ho vulguin puguin enviar anuncis d’ofertes de feina a perfils concrets en funció de variables com l’edat, el gènere o la raça. Fa un any, la Universitat del Sud de Califòrnia publicava una auditoria en què es confirmava que l’algoritme de la companyia mostrava diferents anuncis de feina a homes i dones malgrat que tots dos tinguessin les mateixes condicions.

En moltes ocasions, aquests algoritmes no només analitzen els currículums o les cartes de presentació, sinó que alguns van més enllà i busquen fins i tot en xarxes socials, i en funció del seu grau de desplegament en els processos de selecció poden arribar a analitzar les paraules, el to o les expressions facials dels candidats, explica la investigadora de Data Justice Lab Lina Denick a l’informe La datificació de l’entorn laboral (2019). Denick posa d’exemple el sistema Entelo, una aplicació que calcula la probabilitat que algú encaixi en una empresa o abandoni el seu lloc de treball si troba una oferta millor en funció de la seva activitat a les xarxes socials.

“No hi ha pràcticament cap empresa mitjana i gran que no tingui un algoritme de reclutament. Arriben a utilitzar 100 variables i escaig per veure quin és el millor candidat. Amb el temps, el que hem detectat és que no són neutres”, assegura el responsable de digitalització de la UGT, José Varela, en una conversa telefònica amb l’ARA. Varela, que fa anys que investiga la introducció d’aquests sistemes al món laboral, posa d’exemple el cas d’IBM: “Als anys 70 hi havia un 50% de dones programadores. Després es va instal·lar el test d’aptitud d’IBM i ara veiem que el percentatge de dones programadores no arriba al 10%”. Per a Valera, el problema és que no es detecten els errors dels softwares fins al cap d’uns anys o que no hi ha ningú que els assenyali en el moment. “[Els algoritmes] No aprenen dels seus errors”, afegeix. A més, critica la falta de transparència, en la línia del que comenta l’Armando, a l’hora de poder “vigilar” l’algoritme i conèixer els criteris que utilitza. “Gràcies a lallei rider estem demanant informació a moltes empreses que ens posen multitud de traves al·legant el secret comercial, però això no està per damunt dels drets dels treballadors”, explica Valera, que no descarta que els pròxims anys s’obrin processos judicials.

Aquesta preocupació també ha saltat a Europa. “S’estan fent passos importants per assegurar els drets dels treballadors davant l’auge dels algoritmes”, sosté la professora de dret del treball de la Universidad Carlos III de Madrid, Ana Belén Muñoz Ruiz, que posa d’exemple la llei d’intel·ligència artificial que està tramitant la Comissió Europea i que té per objectiu regular la relació laboral entre persones i algoritmes. La normativa serà d’obligat compliment per a tots els estats membres, explica a l’ARA Muñoz, que detalla que s’hi volen incloure “línies vermelles”.

Mentre no arriba la normativa comunitària, l’experta en dret del treball destaca que el reglament de protecció de dades de la Unió Europea ja inclou que “en aquelles decisions automatitzades és imprescindible la intervenció humana i la possibilitat d’impugnar un procés”. També posa d’exemple el cas de la banca a Espanya, que en el seu conveni col·lectiu destaca l’ús dels algoritmes durant el procés de selecció i la seva transparència. “Ha fet que algunes empreses estrangeres que volen fer processos de selecció a Espanya tinguin en compte que no poden ser exclusivament automatitzats, sinó que hi ha d’haver intervenció humana”.

En aquest sentit, l’Armando explica que dins la consultora per a la qual treballa s’han creat una mena de deu manaments sobre l’ús dels algoritmes. “És un manual on es recullen els pilars de la relació entre la intel·ligència artificial i els treballadors de recursos humans”, explica. L’empleat reflexiona que aquestes iniciatives “ara ens semblen noves” però que “és un tema que d’aquí a deu anys haurà d’estar completament establert”.

Per a ell, la idea és entendre que la intel·ligència artificial està al servei dels treballadors, és a dir, és un mitjà, però no el fi pel qual fan la feina. És el que Muñoz defineix com a “responsabilitats compartides”. “No estem parlant d’odiar la tecnologia, sinó de no donar-li exclusivitat”, conclou la professora.

stats