(icono) No Borrar
CONOCIMIENTO SUSTENTABLE |
Imprimir
![]() Sesgos Inconscientes + Inteligencia ArtificialLa digitalización y la Inteligencia Artificial (IA) ha facilitado y mejorado el trabajo y vida de las personas. Sin embargo, esto a traído consecuencias influenciadas por como aún se conforma nuestra sociedad: se han detectado en otras áreas que refuerza los estereotipos de género. ¡Te invitamos a ver estos estudios de Catalyst!
La IA es para lo que la diseñamos Los estereotipos son generalizaciones muy simplificadas sobre un grupo de personas.6 Este tipo de categorización “taquigráfica” se basa en el supuesto de que todos los miembros de un grupo en particular son iguales. Ya sea explícita o implícitamente, cuando los estereotipos influyen en nuestras percepciones y toma de decisiones, los miembros de grupos estereotipados pueden verse en desventaja y se puede hacer daño.7
A medida que interactuamos con la IA en nuestra vida diaria, la IA tiene el poder de reforzar involuntariamente los estereotipos de género.11 La investigación de Catalyst encuentra que las mujeres líderes percibidas como afectivas o afectivas son apreciadas pero no consideradas competentes. Este “doble vínculo” puede llevar a la segregación ocupacional de las mujeres y la falta de oportunidades de avance.12 Un estudio sobre las interacciones humano-robot encontró que la IA reforzó el dilema del doble vínculo. Los participantes calificaron a los robots a los que se les asignó un género explícito, ya sea rasgos de personalidad estereotípicamente masculinos (seguros y asertivos) o rasgos de personalidad estereotípicamente femeninos (agradables y cálidos). Los participantes calificaron al robot identificado como masculino como más confiable, confiable y competente que el robot femenino; el robot femenino fue calificado como más simpático.13 Si bien los usuarios no necesariamente prefieren robots de cierto género, sí prefieren robots cuyas “ocupaciones” y “personalidades” coincidan con los roles de género estereotipados.14 Por ejemplo, las personas responden mejor a los robots de servicios de salud identificados como mujeres y los robots de servicios de seguridad identificados como hombres. .15 Los asistentes de voz digitales, como Siri y Alexa, a menudo se diseñan con nombres femeninos y voces de género. Su función es realizar tareas que tradicionalmente se han asignado a las mujeres, como programar citas y establecer recordatorios.16 El diseño de estos asistentes de manera consistente con una voz femenina puede reforzar los roles de género tradicionales17 e incluso puede llevar a una contratación sesgada de mujeres en el servicio o asistente. trabajos de tipo.18 Además, la forma en que hablamos con nuestros asistentes digitales puede influir en las normas sociales. El lenguaje abusivo, insultante o sexual puede normalizar la forma en que nos hablamos entre nosotros y, en particular, con las mujeres, mientras que las respuestas tolerantes o pasivas de las asistentes digitales feminizadas a este lenguaje pueden reforzar los estereotipos de la mujer dócil y complaciente19. La IA refuerza los roles y ocupaciones de género La Universidad de Princeton descubrió que las asociaciones de palabras de AI pueden reforzar los estereotipos en todo, desde los resultados de búsqueda en Internet que recibimos hasta las decisiones de contratación que tomamos. Los investigadores de Princeton midieron las asociaciones de palabras de AI y encontraron estereotipos de género en las elecciones de palabras.21 La palabra “enfermera”, por ejemplo, estaba altamente asociada con las palabras “mujeres” y “crianza”. Mientras tanto, la palabra “médico” se asociaba más a menudo con “hombres”. La IA aprende estas asociaciones contextuales a través de los datos que le proporcionan los programadores que son predominantemente blancos y hombres. Es posible que se produzca un sesgo de género si un sistema de reclutamiento de IA comienza a utilizar estas asociaciones de palabras para aceptar a candidatos de enfermería con nombres femeninos en una tasa más alta. 22 Incluso los servicios de traducción de inteligencia artificial revelan estereotipos de ocupación de género al traducir idiomas sin pronombres específicos de género, como el chino y el turco. En este ejemplo, los investigadores encontraron que la IA también asumió que “enfermera”, “niñera” y “maestra” eran todas mujeres.23 Las máquinas enseñadas por software de reconocimiento de imágenes basado en fotografías también aprenden rápidamente el sesgo de género. En un estudio reciente de la Universidad de Virginia, las imágenes que representan actividades como cocinar, ir de compras y lavar tenían más probabilidades de estar vinculadas a las mujeres, mientras que las imágenes de disparos o entrenamiento estaban más vinculadas a los hombres. Los investigadores probaron aún más los conjuntos de datos y descubrieron que la IA no solo reflejaba los estereotipos inconscientes de sus creadores, sino que los amplificaba.24 ¿A dónde vamos desde aquí?
Vía Catalyst: Cómo la IA refuerza los estereotipos de género: Resumen de tendencias Otra nota relacionada: Inteligencia artificial: la nueva frontera para enfrentar el sesgo de género
Fuentes: 1. Janna Anderson and Lee Rainie, “Artificial Intelligence and the Future of Humans,” Pew Research Center, December 10, 2018. 2. World Economic Forum, The Future of Jobs Report 2018 (2018). 3. Alison DeNisco Rayome, “AI Created 3x As Many Jobs As It Killed Last Year,” TechRepublic, June 27, 2019; ZipRecruiter, The Future of Work Report (2019). 4. Lauren Pasquarella Daley, Trend Brief: AI and Gender Bias (Catalyst, 2019). 5. Suzana Dalul, “AI Is Not Neutral, It Is Just as Biased as Humans,” Android Pit, January 30, 2019. 6. Oxford Online Dictionary, “Stereotype.” 7. Sigal Samuel, “Alexa, Are You Making Me Sexist?” Vox, June 12, 2019. 8. International Labour Organization, Breaking Barriers: Unconscious Gender Bias in the Workplace (2017); The Ohio State University, “Understanding Implicit Bias.” 9. Planned Parenthood, “What Are Gender Roles and Stereotypes,” 10. Catalyst, The Double-Bind Dilemma for Women in Leadership (August 2, 2018). 11. Tom Simonite, “AI Is the Future—But Where Are the Women?” WIRED, August 17, 2018; Jessica Guynn, “The Problem with AI? Study Says It’s Too White and Male, Calls for More Women, Minorities,” IMDiversity, April 16, 2019. 12. Catalyst, The Double-Bind Dilemma for Women in Leadership (August 2, 2018). 13. Matthias Kraus, Johannes Kraus, Martin Baumann, and Wolfgang Minker, “Effects of Gender Stereotypes on Trust and Likability in Spoken Human-Robot Interaction,” (European Language Resources Association, 2018). 14. Matthias Kraus, Johannes Kraus, Martin Baumann, and Wolfgang Minker, “Effects of Gender Stereotypes on Trust and Likability in Spoken Human-Robot Interaction,” (European Language Resources Association, 2018). 15. Matthias Kraus, Johannes Kraus, Martin Baumann, and Wolfgang Minker, “Effects of Gender Stereotypes on Trust and Likability in Spoken Human-Robot Interaction,” (European Language Resources Association, 2018). 16. Jordan Muller, “Why We Really Need to Be Thinking About AI and Gender,” Towards Data Science, April 23, 2019. 17. Sigal Samuel, “Alexa, Are You Making Me Sexist?” Vox, June 12, 2019; Amy C. Chambers, “There’s a Reason Siri, Alexa, and AI Are Imagined as Female—Sexism,” The Conversation, August 13, 2018. 18. Jordan Muller, “Why We Really Need to Be Thinking About AI and Gender,” Towards Data Science, April 23, 2019. 19. UNESCO, I’d Blush If I Could: Closing Gender Divides in Digital Skills Through Education (2019). 20. John Murray, “Racist Data? Human Bias is Infecting AI Development,” Towards Data Science, April 24, 2019. 21. Bennett McIntosh, “Bias in the Machine: Internet Algorithms Reinforce Harmful Stereotypes,” Princeton University, November 22, 2016. 22. Aylin Caliskan, Joanna J. Bryson, and Arvind Narayanan, “Semantics Derived Automatically from Language Corpora Contain Human-like Biases,” Science, vol. 356, no. 6334 (2017): p. 183-186; Bennett McIntosh, “Bias in the Machine: Internet Algorithms Reinforce Harmful Stereotypes,” Princeton University, November 22, 2016. 23. Nikhil Sonnad, “Google Translate’s Gender Bias Pairs ‘He’ With ‘Hardworking’ and ‘She’ With Lazy, and Other Examples,” Quartz, November 29, 2017. 24. Tom Simonite, “Machines Taught by Photos Learn a Sexist View of Women,” Wired, August 21, 2017. 25. World Economic Forum, “Assessing Gender Gaps in Artificial Intelligence,” The Global Gender Gap Report 2018 (2018). 26. Ryan Daws, “Lack of STEM Diversity Is Causing AI to Have a ‘White Male’ Bias,” Artificial Intelligence News, April 18, 2019. 27. David Ingham, “What Can Businesses Do to Help Reduce AI Bias?” Tech Native, September 12, 2019. 28. Kush R. Varshney, “Introducing AI Fairness 360,” IBM Research Blog, September 19, 2018. |