(icono) No Borrar
CONOCIMIENTO SUSTENTABLE |
![]() Inteligencia Artificial y contratación equitativa post COVID-19Con la ayuda de la Inteligencia Artificial podemos disminuir la probabilidad de que existan prejuicios o sesgos inconscientes al momento de tomar decisiones. Este es el caso para las empresas que están utilizando esta tecnología para lograr un proceso de selección y contratación equitativo. Sin embargo, si la información que se le entrega al algoritmo es discriminatoria, se seguirán repitiendo los patrones humanos. ¡Lee más sobre este artículo! ¿El gran ecualizador? Una fuerza laboral diversa comienza con un grupo de candidatos diverso. Asegurarse de que el proceso de contratación no excluya a candidatos calificados y racialmente diversos es más importante ahora que nunca. Los reclutadores y los especialistas en recursos humanos deben ser intencionales para mitigar el sesgo en el proceso de contratación, y esto incluye el uso de inteligencia artificial (IA). Aunque a menudo se las considera métodos objetivos para agilizar el flujo de trabajo de contratación, las herramientas de contratación de IA pueden automatizar los rechazos y reducir un grupo de candidatos a través de una serie de decisiones que cierran la puerta a una gama más amplia de solicitantes calificados.1 La naturaleza de la IA: entender cómo ocurre el sesgo La propia naturaleza de la IA significa que los sistemas siempre están aprendiendo y cambiando. A medida que un algoritmo se vuelve más sofisticado, utiliza conjuntos de datos más amplios, los que no fueron introducidos directamente por un humano.4 También puede dar un énfasis descomunal a patrones identificados.5 Sin el beneficio del juicio humano o una brújula moral, máquinas más complejas El pensamiento puede incorporar datos irrelevantes, lo que conduce a resultados sesgados. Desde el abastecimiento hasta la clasificación: el sesgo puede aparecer en cada paso El lugar donde aparece una publicación de trabajo determina quién se entera del trabajo y quién lo solicita. Las plataformas publicitarias algorítmicas y las bolsas de trabajo utilizan tecnología predictiva para dirigirse a ciertos grupos demográficos que se consideran más propensos a hacer clic en anuncios específicos. Estos métodos pueden excluir a los candidatos al limitar quién ve anuncios de trabajo en particular. En un estudio, los algoritmos predictivos enviaron anuncios a una audiencia negra de aproximadamente el 75%, mientras que los anuncios de empleo para puestos de madera y cajeros llegaron a audiencias que eran 72% blancas.6
Los candidatos a puestos de trabajo comúnmente aprenden sobre puestos vacantes a través del filtrado colaborativo, un proceso que predice los intereses de alguien al compararlo con buscadores de trabajo aparentemente similares. Este filtrado corre el riesgo de crear estereotipos cuando las acciones de unos pocos parecen representar a un grupo completo.7 Por ejemplo, a una persona de color que busca un puesto de gestión se le pueden mostrar sólo puestos junior si un sistema impulsado por IA ha registrado a otras personas de color haciendo clic en puestos de nivel junior. Con base en estos datos incompletos, la IA puede hacer una suposición incorrecta sobre el buscador de puestos gerenciales y filtrar los trabajos gerenciales. El resultado es un candidato calificado que no ve, y por lo tanto no solicita, ciertos puestos vacantes sin tener la culpa. 8
Los sistemas de evaluación predictiva a menudo utilizan un algoritmo que se basa en datos de contrataciones exitosas anteriores para evaluar a los posibles candidatos que responden a un puesto de trabajo.9 Es probable que este modelo de evaluación incluya y perpetúe sesgos sociales interpersonales, institucionales y sistémicos.10 Los sesgos pueden entrar en el proceso cuando un sistema de contratación de IA examina los materiales de la aplicación utilizando proxies para reducir el grupo de candidatos. En una empresa en la que la mayoría de los empleados son hombres blancos, un algoritmo de contratación que utilice un proxy basado en los nombres de las contrataciones anteriores podría hacer avanzar a un candidato llamado Connor a la siguiente ronda de contratación y rechazar a un candidato llamado Jamal.11 Recientemente, un candidato importante reclutamiento de empresas de tecnología AI se enseñó a sí misma quién era el candidato “ideal” de la empresa al revisar los patrones en los currículums presentados durante un período de 10 años. Como la mayoría de los solicitantes durante este tiempo habían sido hombres, el sistema acumuló sus datos a través de esos currículums y solicitudes rebajadas que usaban la palabra “mujeres” al referirse a equipos o clubes, incluso rechazando rotundamente a los graduados de dos universidades para mujeres. El resultado fue un grupo de solicitantes predominantemente masculino, ya que la IA de contratación eliminó significativamente el número de mujeres solicitantes.12
La velocidad y la capacidad de análisis complejo de la IA son una combinación tentadora para los gerentes de contratación, especialmente en las grandes empresas. Un algoritmo podría hacer una referencia cruzada de hasta 500.000 puntos de datos en una evaluación de 30 minutos y calificar a los solicitantes utilizando datos de referencia de los empleados actuales.13 Es importante que los reclutadores reconozcan el sesgo de automatización, una dependencia excesiva de las predicciones o clasificaciones informáticas proporcionadas por la IA y el suposición de que tales cálculos son objetivos.14 Algunas organizaciones utilizan IA que evalúa a los entrevistados analizando sus expresiones faciales, elección de palabras y tono de voz. A medida que estos algoritmos juzgan a los nuevos candidatos en función de los datos recopilados de contrataciones anteriores, los sesgos y prejuicios existentes pueden perpetuarse y amplificarse.15 Mirando hacia el futuro Los investigadores, legisladores, profesores y solicitantes de AI han expresado su preocupación de que la falta de transparencia en la recopilación de datos, o cómo los algoritmos se extrapolan de conjuntos de datos iniciales, puede llevar a decisiones de contratación que discriminen a los hablantes no nativos de inglés y a las personas de color.16 Sin transparencia, es difícil determinar cómo AI decide qué empleado potencial está calificado17 y responsabilizar a una organización por prácticas de contratación discriminatorias que podrían tener sus raíces en la IA. Cuando la utilizan empresas que ya son racialmente homogéneas, la IA aprenderá de los datos históricos y establecerá criterios de contratación que coincidan con el grupo de empleados dominante, perpetuando la falta de diversidad racial en la fuerza laboral de la empresa.18 Se están probando enfoques alternativos de IA, como la construcción de restricciones específicas desde el principio y el uso de algoritmos adicionales para “auditar” la IA inicial utilizada, pero estos deben refinarse y probarse más. El lugar de trabajo posterior al Covid-19 Los datos recientes sobre el impacto de Covid-19 en la economía de EE. UU. Indican que las mujeres, y las mujeres de color en particular, están experimentando tasas de pérdida de empleo más altas que otros grupos.20 El único subconjunto de la población de EE. UU. Que experimentó un aumento en el desempleo en abril de 2020 fue el de las mujeres negras, 21 y a pesar de los pequeños avances en junio, las mujeres negras y latinas aún enfrentan las peores cifras de desempleo.22 A medida que los lugares de trabajo reabren y comiencen a contratar de nuevo, es fundamental recuperar la pérdida de diversidad que la pandemia creó en nuestra fuerza laboral, especialmente a medida que más empresas se comprometen verbalmente a apoyar el movimiento #BlackLivesMatter. El primer paso para reconstruir una fuerza laboral diversa es la contratación equitativa. Las organizaciones no deben permitir que la IA sea una barrera de acceso. La inteligencia artificial es una herramienta que puede aprender y replicar barreras y sesgos institucionales de larga data. Los procesos de reclutamiento y contratación intencionales son necesarios para garantizar que la IA no repita los prejuicios existentes, elimine el talento o continúe afectando de manera desproporcionada y negativa a los grupos subrepresentados, como las personas de color, las mujeres y las personas con discapacidades. Referencias:
|