Els algoritmes també discriminen: el biaix ocult en la selecció de personal
Carlos Castillo, investigador de la Universitat Pompeu Fabra (UPF) i expert en justícia algorítmica, alerta de l’existència d’una “discriminació invisible” en molts processos de selecció de personal derivada de l’ús de plataformes digitals de cerca de feina. Segons ha explicat, aquests sistemes incorporen biaixos tecnològics i algorítmics que poden condicionar les decisions de contractació sense que ni les empreses ni els candidats en siguin plenament conscients.
Aquesta és una de les principals conclusions del projecte europeu FINDHR (Fairness and Intersectional Non-Discrimination in Human Recommendation), liderat per la UPF i desenvolupat durant tres anys amb la participació d’11 institucions de 7 països. El projecte ha analitzat com funcionen les plataformes de selecció digital i quin impacte tenen sobre col·lectius potencialment vulnerables, especialment quan es combinen factors com el gènere, l’origen o altres condicionants socials.
Castillo ha assenyalat que la majoria de plataformes de cerca de feina utilitzen Applicant Tracking Systems (ATS), eines automatitzades que permeten filtrar ràpidament un volum molt elevat de candidatures, una mitjana de 250 per oferta laboral. Tot i la seva eficàcia operativa, l’investigador ha advertit que aquests sistemes no són neutres. “El biaix en els processos selectius és estructural i és fruit de la interacció entre la tecnologia i la persona que la fa servir”, ha afirmat, tot destacant que la manca de comprensió del funcionament dels algoritmes pot generar discriminacions inconscients, fins i tot quan hi ha voluntat d’evitar-les.
El risc, segons el responsable del projecte, és que aquests biaixos s’accentuïn en un context de creixent incorporació de la intel·ligència artificial als ATS. En aquest sentit, la nova Llei europea d’intel·ligència artificial (AI Act) ja classifica aquests sistemes com a tecnologies d’alt risc i estableix l’obligació de dotar-se de mecanismes de control i supervisió. No obstant això, Castillo ha subratllat que la regulació ha d’anar acompanyada d’eines pràctiques i coneixement tècnic per ser realment efectiva.
Amb aquest objectiu, el projecte FINDHR ha desenvolupat tres kits d’eines gratuïts, adreçats a professionals de recursos humans, responsables polítics i desenvolupadors de programari. Aquests materials ofereixen orientacions per identificar biaixos algorítmics, incorporar criteris de justícia algorítmica en la contractació de plataformes ATS, crear equips interdisciplinaris i realitzar auditories algorítmiques periòdiques a càrrec d’organismes independents.
Reptes a futur
Un dels principals reptes abordats pel projecte ha estat la tensió entre la necessitat d’analitzar dades per detectar discriminacions i les restriccions que imposa la normativa europea de protecció de dades. Per superar aquest obstacle, FINDHR proposa l’ús de la Computació Segura Multi-Part, un sistema que permet cedir dades personals de manera controlada i segura a entitats autoritzades per fer auditories, un cop finalitzat el procés de selecció.
La recerca s’ha basat en entrevistes a un centenar de sol·licitants de feina i una vintena de reclutadors de set països europeus, així com en la col·laboració amb empreses i institucions com InfoJobs, Randstad o Barcelona Activa. També s’han analitzat prop de 1.200 currículums i s’ha format més d’un centenar de professionals en recursos humans i auditoria d’IA.
Per a Carlos Castillo, fer visibles els biaixos és un pas imprescindible per garantir processos de selecció més justos. “La tecnologia pot millorar l’eficiència, però només si s’utilitza amb responsabilitat, transparència i criteris ètics”, ha conclòs.
