"SIGUE EL RADAR DE LA SUSTENTABILIDAD"

Search

(icono) No Borrar
Imprimir Imprimir

Debes integrar la Inteligencia Artificial de forma RESPONSABLE

Los valores organizacionales son clave. Estos pueden ofrecer una brújula para la aplicación adecuada de la Inteligencia Artificial dentro de tu organización. ¿Quieres saber de qué manera tu liderazgo puede orientar a tus colaboradores en ese camino?

Los directores ejecutivos a menudo viven de acuerdo con los números: ganancias, ganancias antes de intereses e impuestos, ganancias para los accionistas. Estos datos a menudo sirven como evidencia contundente del éxito o fracaso del CEO, pero ciertamente no son las únicas medidas. Entre los factores de éxito más suaves, pero igualmente importantes: tomar decisiones acertadas que no solo conduzcan a la creación de valor, sino que también «no hagan daño».

Si bien la inteligencia artificial (IA) se está convirtiendo rápidamente en una nueva herramienta en el cinturón de herramientas del CEO para impulsar los ingresos y la rentabilidad, también ha quedado claro que la implementación de la IA requiere una gestión cuidadosa para evitar daños no intencionales pero significativos, no solo a la reputación de la marca sino, lo que es más importante , a los trabajadores, las personas y la sociedad en su conjunto.

Legiones de empresas, gobiernos y organizaciones sin fines de lucro están comenzando a sacar provecho del valor que la IA puede ofrecer. Entre 2017 y 2018, la investigación de McKinsey encontró que el porcentaje de empresas que incorporan al menos una capacidad de IA en sus procesos comerciales se duplicó con creces, y casi todas las empresas que utilizan informes de IA lograron algún nivel de valor.

Sin embargo, no es sorprendente que, a medida que la IA sobrealimenta a las empresas y la sociedad, los directores ejecutivos estén bajo el foco de atención para garantizar el uso responsable de los sistemas de IA de su empresa más allá de cumplir con el espíritu y la letra de las leyes aplicables. Los debates éticos están muy avanzados sobre lo que es «correcto» e «incorrecto» cuando se trata de aplicaciones de IA de alto riesgo, como armas autónomas y sistemas de vigilancia. Y hay una gran preocupación y escepticismo con respecto a cómo podemos imbuir a los sistemas de IA con el juicio ético humano, cuando los valores morales con frecuencia varían según la cultura y pueden ser difíciles de codificar en el software.

Si bien estas grandes cuestiones morales afectan a un número selecto de organizaciones, casi todas las empresas deben lidiar con otro estrato de consideraciones éticas, porque incluso los usos aparentemente inocuos de la IA pueden tener graves implicaciones. Numerosos eventos de sesgo de IA, discriminación y violaciones de la privacidad ya han llenado las noticias, dejando a los líderes preocupados con razón sobre cómo asegurarse de que no ocurra nada malo mientras implementan sus sistemas de IA.

Es casi seguro que la mejor solución es no evitar el uso de la IA por completo; el valor en juego puede ser demasiado significativo y hay ventajas en ser temprano en el juego de la IA. En cambio, las organizaciones pueden garantizar la construcción y aplicación responsables de la IA asegurándose de confirmar que los resultados de la IA sean justos, que los nuevos niveles de personalización no se traduzcan en discriminación, que la adquisición y el uso de datos no se produzcan a expensas de la privacidad del consumidor y que sus organizaciones equilibran el rendimiento del sistema con la transparencia sobre cómo los sistemas de IA hacen sus predicciones.

Puede parecer lógico delegar estas preocupaciones a los líderes y equipos de ciencia de datos, ya que ellos son los expertos cuando se trata de comprender cómo funciona la IA. Sin embargo, estamos descubriendo a través de nuestro trabajo que el rol del CEO es vital para la entrega consistente de sistemas de IA responsables y que el CEO necesita tener al menos un sólido conocimiento práctico del desarrollo de IA para asegurarse de que está haciendo las preguntas correctas para prevenir posibles problemas éticos. En este artículo, proporcionaremos este conocimiento y un enfoque pragmático para que los directores ejecutivos se aseguren de que sus equipos están construyendo una IA de la que la organización puede estar orgullosa.

En el entorno empresarial actual, donde las organizaciones a menudo tienen muchas partes móviles, toma de decisiones distribuida y trabajadores que están capacitados para innovar, los valores de la empresa sirven como una guía importante para los empleados, ya sea que un gerente de marketing determine qué campaña publicitaria ejecutar o un científico de datos que identifica dónde usar la IA y cómo construirla. Sin embargo, llevar estos valores a la práctica al desarrollar y utilizar la IA no es tan sencillo como podría pensarse. Las declaraciones de valor breves y de alto nivel no siempre brindan una guía clara en un mundo donde lo «correcto» y lo «incorrecto» pueden ser ambiguos y la línea entre lo innovador y lo ofensivo es delgada. Los directores ejecutivos pueden proporcionar una guía crítica aquí en tres áreas clave (Anexo 1).

Revisar artículo completo aquí