PathMBA Vault

Business management

4 cosas a tener en cuenta antes de empezar a utilizar la IA en las decisiones de personal

por Peter Cappelli

4 cosas a tener en cuenta antes de empezar a utilizar la IA en las decisiones de personal

Juan Moyano/Stocksy

La promesa inicial de la inteligencia artificial como una herramienta amplia para resolver problemas empresariales ha dado paso a algo mucho más limitado, pero que sigue siendo muy útil: algoritmos de la ciencia de datos que hacen predicciones mejores de las que hemos podido hacer hasta ahora.

A diferencia de los modelos estadísticos estándar que se centran en uno o dos factores que ya se sabe que están asociados a un resultado, como el rendimiento laboral, los algoritmos de aprendizaje automático son independientes de qué variables han funcionado antes o por qué funcionan. Cuantos más, mejor: los reúne todos y produce un modelo para predecir algunos resultados, como quién será un buen empleado, lo que da a cada candidato una puntuación única y fácil de interpretar en cuanto a la probabilidad de que tenga un buen desempeño en un trabajo.

Centro Insight

Sin duda porque la promesa de estos algoritmos era tan grande, el reconocimiento de sus limitaciones también ha recibido mucha atención, sobre todo teniendo en cuenta que si los datos iniciales utilizados para crear el modelo están sesgados, el algoritmo generado a partir de esos datos perpetuará ese sesgo. Los ejemplos más conocidos están en organizaciones que discriminaban a las mujeres en el pasado, cuando los datos de desempeño laboral también estaban sesgados, y eso significaba que los algoritmos basados en esos datos también estaban sesgados.

Entonces, ¿cómo deben proceder los empleadores al contemplar la posibilidad de adoptar la IA para tomar decisiones de personal? Estas son cuatro consideraciones:

1. El algoritmo puede estar menos sesgado que las prácticas existentes que generan los datos en primer lugar. No idealicemos lo poco que es el juicio humano y lo desorganizadas que están la mayoría de nuestras prácticas de gestión de personas en la actualidad. Cuando delegamos la contratación en supervisores individuales, por ejemplo, es muy probable que cada uno de ellos tenga muchos sesgos a favor y en contra de los candidatos en función de atributos que no tienen nada que ver con un buen desempeño: el supervisor A puede preferir a los candidatos que se graduaron en una universidad en particular porque ella fue allí, mientras que el supervisor B puede hacer lo contrario porque tuvo una mala experiencia con algunos de sus graduados. Al menos los algoritmos tratan a todos los que tienen los mismos atributos por igual, aunque no necesariamente de manera justa.

2. Puede que no tengamos buenas medidas de todos los resultados que nos gustaría predecir y puede que no sepamos cómo sopesar los distintos factores a la hora de tomar las decisiones finales. Por ejemplo, ¿qué es lo que hace que sea un «buen empleado»? Tienen que cumplir bien sus tareas, también deben llevarse bien con sus colegas, adaptarse a la «cultura», quedarse con nosotros y no dejar de fumar, etc. Centrarse solo en un aspecto en el que tengamos medidas nos llevará a un algoritmo de contratación que seleccione ese aspecto, a menudo cuando no está estrechamente relacionado con otros aspectos, como un vendedor que es muy bueno con los clientes pero miserable con sus compañeros de trabajo.

Una vez más, no está claro que lo que estamos haciendo ahora sea mejor: un supervisor individual que tome una decisión de ascenso puede, en teoría, tener en cuenta todos esos criterios, pero cada evaluación está cargada de sesgos y la forma en que se ponderan es arbitraria. Lo sabemos de investigación rigurosa que cuanto más usen los directores de contratación su propio juicio en estos asuntos, peores serán sus decisiones.

3. Los datos que utiliza la IA pueden plantear cuestiones morales. Los algoritmos que predicen la rotación, por ejemplo, ahora suelen basarse en los datos de las redes sociales, como las publicaciones en Facebook. Puede que decidamos que recopilar esos datos sobre nuestros empleados es una invasión de la privacidad, pero no usarlos tiene el precio de modelos que predicen menos bien.

También puede darse el caso de que un algoritmo haga un buen trabajo en general al predecir algo para el empleado medio, pero haga un mal trabajo para algún subgrupo de empleados. Puede que no sorprenda, por ejemplo, descubrir que los modelos de contratación que eligen nuevos vendedores no funcionan bien a la hora de elegir ingenieros. La solución parece ser simplemente tener modelos distintos para cada uno. Pero, ¿y si los diferentes grupos son hombres y mujeres o blancos y afroamericanos, como parece ser el caso? En esos casos, las restricciones legales nos impiden utilizar diferentes prácticas y diferentes modelos de contratación para los diferentes grupos demográficos.

4. A menudo es difícil, si no imposible, explicar y justificar los criterios en los que se basan las decisiones algorítmicas. En la mayoría de los lugares de trabajo ahora, tenemos al menos algunos criterios aceptados para tomar decisiones laborales: él tuvo la oportunidad porque lleva más tiempo aquí; ella estaba libre este fin de semana porque tenía ese turno el fin de semana pasado; así es como hemos tratado a la gente antes. Si no consigo el ascenso o el turno que quiero, puedo presentar una queja a la persona que tomó la decisión. Él o ella tiene la oportunidad de explicar el criterio e incluso puede que me ayude la próxima vez si la decisión no le parece del todo justa.

Cuando utilizamos algoritmos para impulsar esas decisiones, perdemos la capacidad de explicar a los empleados cómo se tomaron esas decisiones. El algoritmo simplemente reúne toda la información disponible para construir modelos extremadamente complicados que predicen los resultados pasados. Sería muy poco probable que esos resultados se correspondieran con algún principio que pudiéramos observar o explicar que no fuera decir: «El modelo general dice que esto funcionará mejor». El supervisor no puede evitar explicar ni abordar los problemas de imparcialidad.

Especialmente cuando esos modelos no funcionan mucho mejor que los que ya estamos haciendo, vale la pena preguntarse si la irritación que causan a los empleados vale la pena. La ventaja, por ejemplo, de dejar que el empleado más sénior sea el primero en elegir su horario es que este criterio se entiende fácilmente, se corresponde con al menos algunas nociones aceptadas de equidad, es fácil de aplicar y puede tener algunos beneficios a largo plazo, como aumentar las recompensas por quedarse. Puede que haya algún momento en el que los algoritmos puedan tener en cuenta cuestiones como esta, pero ahora no estamos ni cerca de eso.

Podría decirse que los modelos algorítmicos no son peores que los que estamos haciendo ahora. Pero sus problemas de imparcialidad son más fáciles de detectar porque se producen a gran escala. La manera de resolverlos es obtener más y mejores medidas, datos que no estén sesgados. Hacerlo ayudaría incluso si no utilizáramos algoritmos de aprendizaje automático para tomar decisiones de personal.

Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología

Arreglar los chatbots requiere psicología, no tecnología

Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.