"SIGUE EL RADAR DE LA SUSTENTABILIDAD"

Search

(icono) No Borrar
Imprimir Imprimir

Inteligencia Artificial y contratación equitativa post COVID-19

Con la ayuda de la Inteligencia Artificial podemos disminuir la probabilidad de que existan prejuicios o sesgos inconscientes al momento de tomar decisiones. Este es el caso para las empresas que están utilizando esta tecnología para lograr un proceso de selección y contratación equitativo. Sin embargo, si la información que se le entrega al algoritmo es discriminatoria, se seguirán repitiendo los patrones humanos. ¡Lee más sobre este artículo!

¿El gran ecualizador?
A medida que reconstruimos la fuerza laboral, podemos evitar repetir errores del pasado.

Una fuerza laboral diversa comienza con un grupo de candidatos diverso. Asegurarse de que el proceso de contratación no excluya a candidatos calificados y racialmente diversos es más importante ahora que nunca. Los reclutadores y los especialistas en recursos humanos deben ser intencionales para mitigar el sesgo en el proceso de contratación, y esto incluye el uso de inteligencia artificial (IA). Aunque a menudo se las considera métodos objetivos para agilizar el flujo de trabajo de contratación, las herramientas de contratación de IA pueden automatizar los rechazos y reducir un grupo de candidatos a través de una serie de decisiones que cierran la puerta a una gama más amplia de solicitantes calificados.1

La naturaleza de la IA: entender cómo ocurre el sesgo
Los gerentes de contratación ocupados a veces usan IA en forma de algoritmos de contratación que pueden examinar rápidamente los currículums de los solicitantes de empleo, analizar grandes conjuntos de datos y reducir la cantidad de tiempo que lleva encontrar candidatos calificados.2 Aunque los algoritmos de IA pueden parecer libres de prejuicios humanos , AI es tan imparcial como aquellos que diseñan, supervisan e ingresan datos en estos sistemas.3

La propia naturaleza de la IA significa que los sistemas siempre están aprendiendo y cambiando. A medida que un algoritmo se vuelve más sofisticado, utiliza conjuntos de datos más amplios, los que no fueron introducidos directamente por un humano.4 También puede dar un énfasis descomunal a patrones identificados.5 Sin el beneficio del juicio humano o una brújula moral, máquinas más complejas El pensamiento puede incorporar datos irrelevantes, lo que conduce a resultados sesgados.

Desde el abastecimiento hasta la clasificación: el sesgo puede aparecer en cada paso
Destino

El lugar donde aparece una publicación de trabajo determina quién se entera del trabajo y quién lo solicita. Las plataformas publicitarias algorítmicas y las bolsas de trabajo utilizan tecnología predictiva para dirigirse a ciertos grupos demográficos que se consideran más propensos a hacer clic en anuncios específicos. Estos métodos pueden excluir a los candidatos al limitar quién ve anuncios de trabajo en particular. En un estudio, los algoritmos predictivos enviaron anuncios a una audiencia negra de aproximadamente el 75%, mientras que los anuncios de empleo para puestos de madera y cajeros llegaron a audiencias que eran 72% blancas.6

  • Posteando

Los candidatos a puestos de trabajo comúnmente aprenden sobre puestos vacantes a través del filtrado colaborativo, un proceso que predice los intereses de alguien al compararlo con buscadores de trabajo aparentemente similares. Este filtrado corre el riesgo de crear estereotipos cuando las acciones de unos pocos parecen representar a un grupo completo.7 Por ejemplo, a una persona de color que busca un puesto de gestión se le pueden mostrar sólo puestos junior si un sistema impulsado por IA ha registrado a otras personas de color haciendo clic en puestos de nivel junior. Con base en estos datos incompletos, la IA puede hacer una suposición incorrecta sobre el buscador de puestos gerenciales y filtrar los trabajos gerenciales. El resultado es un candidato calificado que no ve, y por lo tanto no solicita, ciertos puestos vacantes sin tener la culpa. 8

  • Poner en pantalla

Los sistemas de evaluación predictiva a menudo utilizan un algoritmo que se basa en datos de contrataciones exitosas anteriores para evaluar a los posibles candidatos que responden a un puesto de trabajo.9 Es probable que este modelo de evaluación incluya y perpetúe sesgos sociales interpersonales, institucionales y sistémicos.10

Los sesgos pueden entrar en el proceso cuando un sistema de contratación de IA examina los materiales de la aplicación utilizando proxies para reducir el grupo de candidatos. En una empresa en la que la mayoría de los empleados son hombres blancos, un algoritmo de contratación que utilice un proxy basado en los nombres de las contrataciones anteriores podría hacer avanzar a un candidato llamado Connor a la siguiente ronda de contratación y rechazar a un candidato llamado Jamal.11 Recientemente, un candidato importante reclutamiento de empresas de tecnología AI se enseñó a sí misma quién era el candidato «ideal» de la empresa al revisar los patrones en los currículums presentados durante un período de 10 años. Como la mayoría de los solicitantes durante este tiempo habían sido hombres, el sistema acumuló sus datos a través de esos currículums y solicitudes rebajadas que usaban la palabra «mujeres» al referirse a equipos o clubes, incluso rechazando rotundamente a los graduados de dos universidades para mujeres. El resultado fue un grupo de solicitantes predominantemente masculino, ya que la IA de contratación eliminó significativamente el número de mujeres solicitantes.12

  • Entrevistando

La velocidad y la capacidad de análisis complejo de la IA son una combinación tentadora para los gerentes de contratación, especialmente en las grandes empresas. Un algoritmo podría hacer una referencia cruzada de hasta 500.000 puntos de datos en una evaluación de 30 minutos y calificar a los solicitantes utilizando datos de referencia de los empleados actuales.13 Es importante que los reclutadores reconozcan el sesgo de automatización, una dependencia excesiva de las predicciones o clasificaciones informáticas proporcionadas por la IA y el suposición de que tales cálculos son objetivos.14 Algunas organizaciones utilizan IA que evalúa a los entrevistados analizando sus expresiones faciales, elección de palabras y tono de voz. A medida que estos algoritmos juzgan a los nuevos candidatos en función de los datos recopilados de contrataciones anteriores, los sesgos y prejuicios existentes pueden perpetuarse y amplificarse.15

Mirando hacia el futuro
La necesidad de transparencia

Los investigadores, legisladores, profesores y solicitantes de AI han expresado su preocupación de que la falta de transparencia en la recopilación de datos, o cómo los algoritmos se extrapolan de conjuntos de datos iniciales, puede llevar a decisiones de contratación que discriminen a los hablantes no nativos de inglés y a las personas de color.16 Sin transparencia, es difícil determinar cómo AI decide qué empleado potencial está calificado17 y responsabilizar a una organización por prácticas de contratación discriminatorias que podrían tener sus raíces en la IA. Cuando la utilizan empresas que ya son racialmente homogéneas, la IA aprenderá de los datos históricos y establecerá criterios de contratación que coincidan con el grupo de empleados dominante, perpetuando la falta de diversidad racial en la fuerza laboral de la empresa.18

Se están probando enfoques alternativos de IA, como la construcción de restricciones específicas desde el principio y el uso de algoritmos adicionales para «auditar» la IA inicial utilizada, pero estos deben refinarse y probarse más.

El lugar de trabajo posterior al Covid-19

Los datos recientes sobre el impacto de Covid-19 en la economía de EE. UU. Indican que las mujeres, y las mujeres de color en particular, están experimentando tasas de pérdida de empleo más altas que otros grupos.20

El único subconjunto de la población de EE. UU. Que experimentó un aumento en el desempleo en abril de 2020 fue el de las mujeres negras, 21 y a pesar de los pequeños avances en junio, las mujeres negras y latinas aún enfrentan las peores cifras de desempleo.22

A medida que los lugares de trabajo reabren y comiencen a contratar de nuevo, es fundamental recuperar la pérdida de diversidad que la pandemia creó en nuestra fuerza laboral, especialmente a medida que más empresas se comprometen verbalmente a apoyar el movimiento #BlackLivesMatter. El primer paso para reconstruir una fuerza laboral diversa es la contratación equitativa. Las organizaciones no deben permitir que la IA sea una barrera de acceso. La inteligencia artificial es una herramienta que puede aprender y replicar barreras y sesgos institucionales de larga data. Los procesos de reclutamiento y contratación intencionales son necesarios para garantizar que la IA no repita los prejuicios existentes, elimine el talento o continúe afectando de manera desproporcionada y negativa a los grupos subrepresentados, como las personas de color, las mujeres y las personas con discapacidades.

Referencias:

  1. Miranda Bogen, “Help Wanted: An Examination of Hiring Algorithms, Equity, and Bias,” Upturn (2018).
  2. Miranda Bogen, “Help Wanted: An Examination of Hiring Algorithms, Equity, and Bias,” Upturn (2018).
  3. Megan Farokhmanesh, “The Next Frontier in Hiring Is AI-Driven: Can an AI Ease the Stress of Recruiting?” The Verge, January 30, 2019.
  4. John Villasenor, “Artificial Intelligence and Bias: Four Key Challenges,” The Brookings Institution, January 3, 2019.
  5. Ayanna Howard and Jason Borenstein, “The Ugly Truth About Ourselves and Our Robot Creations: The Problem of Bias and Social Inequity,” Science and Engineering Ethics, vol. 24: p. 1521-1536 (2018).
  6. Muhammad Ali, Piotr Sapiezynski, Miranda Bogen, Aleksandra Korolova, Alan Mislove, and Aaron Rieke, “Discrimination through Optimization: How Facebook’s Ad Delivery Can Lead to Skewed Outcomes,” Proceedings of the ACM on Human-Computer Interaction, vol. 3 CSCW (2019): p. 1-30.
  7. Catherine Stinson, “Algorithms are not Neutral: Bias in Recommendation Systems,” Center for Science and Thought, University of Bonn (2018).
  8. Miranda Bogen, “Help Wanted: An Examination of Hiring Algorithms, Equity, and Bias,” Upturn (2018).
  9. Miranda Bogen, “All the Ways Hiring Algorithms Can Introduce Bias,” Harvard Business Review, May 6, 2019.
  10. Miranda Bogen, “Help Wanted: An Examination of Hiring Algorithms, Equity, and Bias,” Upturn (2018).
  11. Anya Prince and Daniel Schwarcz, “Proxy Discrimination in the Age of Artificial Intelligence and Big Data,” Iowa Law Review, vol. 105 (2020).
  12. Jeffrey Dastin, “Amazon Scraps Secret AI Recruiting Tool that Showed Bias Against Women,” Reuters, October 9, 2018.
  13. Drew Harwell, “A Face-scanning Algorithm Increasingly Decides Whether You Deserve the Job,” Washington Post, November 6, 2019.
  14. Miranda Bogen, “Help Wanted: An Examination of Hiring Algorithms, Equity, and Bias,” Upturn (2018).
  15. Ivan Manokha, “Facial Analysis AI is Being Used in Job Interviews—It Will Probably Reinforce Inequality,” The Conversation, October 7, 2019.
  16. Drew Harwell, “A Face-scanning Algorithm Increasingly Decides Whether You Deserve the Job,” Washington Post, November 6, 2019.
  17. AON, “Be Aware of ‘Black Box’ Problems When Using AI for Recruiting,” October 30, 2018.
  18. Liz Webber, “These Entrepreneurs Are Taking On Bias in Artificial Intelligence,” Entrepreneur, September 5, 2018; Bahar Gholipour, “We Need to Open the AI Black Box Before It’s Too Late,” Futurism, January 18, 2018.
  19. James Zou and Londa Schiebinger, “AI Can Be Sexist and Racist — it’s Time to Make it Fair,” Nature, July 18, 2018.
  20. Danielle Kurtzleben, “Job Losses Higher Among People of Color During Coronavirus Pandemic,” NPR, April 22, 2020.
  21. Claire Ewing-Nelson, “Despite Slight Gains in May, Women Have Still Been Hit Hardest by Pandemic Related Job Losses,” National Women’s Law Center (June 2020).
  22. Claire Ewing-Nelson, “June Brings 2.9 Million Women’s Jobs Back, Many of Which Are At Risk of Being Lost Again,” National Women’s Law Center (July 2020).

Vía Catalyst