MANAGEMENT

Construyendo Inteligencia Artificial Ética para la Gestión del Talento

La inteligencia artificial ha alterado todas las áreas de nuestras vidas — desde las experiencias de compra seleccionada que esperamos de compañías como Amazon y Alibaba hasta las recomendaciones personalizadas que utilizan canales como YouTube y Netflix para comercializar su contenido más reciente. Pero, cuando se trata del lugar de trabajo, en muchos sentidos, la IA todavía está en su infancia. Esto es particularmente cierto cuando consideramos las formas en que está empezando a cambiar la gestión del talento. Para usar una analogía familiar: La IA en el trabajo está en modo dial-up. La fase WiFi 5G aún no ha llegado, sin embargo, no tenemos duda de que lo hará.

Sin duda, existe mucha confusión sobre lo que la IA puede y no puede hacer, así como las diferentes perspectivas sobre cómo definirlo. Sin embargo, en la guerra por el talento, la IA desempeña un papel muy específico; dar a las organizaciones predicciones más precisas y eficientes de las conductas relacionados con el trabajo y el potencial de desempeño de un aspirante. A diferencia de los métodos tradicionales de reclutamiento, como referencias del empleado, la selección de CV y entrevistas cara a cara, la IA es capaz de encontrar patrones invisibles al ojo humano.

Muchos sistemas de IA utilizan a personas reales como modelos de cómo luce el éxito en ciertos roles. Este grupo de individuos se conoce como un “conjunto de datos de capacitación” y a menudo incluye a gerentes o personal que se han definidos como “de alto desempeño”. Los sistemas de IA procesan y comparan los perfiles de distintos solicitantes al puesto de trabajo, con el empleado “modelo” que ha creado basado en la serie de entrenamientos. Luego, le da a la compañía una estimación probabilística de cuán cerca los atributos de un aspirante coinciden con los del empleado ideal.

Teóricamente, este método podría utilizarse para encontrar a la persona apropiada para el puesto adecuado de forma más rápida y eficiente que nunca. Pero, como se habrán dado cuenta, se ha convertido en una fuente tanto de promesas como de peligros. Si la serie de entrenamientos es diversa, si se utilizan datos demográficamente imparciales para medir a las personas que lo integran, y si los algoritmos también son imparciales, esta técnica puede en realidad mitigar los prejuicios humanos y ampliar la diversidad y la inclusión socioeconómica mejor de lo que los seres humanos jamás podrían hacerlo. Sin embargo, si dicha serie, los datos, o ambos están parcializados, y los algoritmos no son suficientemente auditados, la IA sólo exacerbaría el problema de la parcialidad en la contratación y la homogeneidad en las organizaciones.

A fin de mejorar rápidamente la gestión del talento y aprovechar al máximo el poder y las potenciales ofertas de la IA, debemos entonces cambiar nuestro enfoque de desarrollar sistemas de RRHH más éticos a desarrollar una IA más ética. Por supuesto, eliminar la parcialidad de la IA no es fácil. De hecho, es muy difícil. Pero nuestro argumento se basa en nuestra creencia de que es mucho más factible que eliminarlo de los propios humanos.

Cuando se trata de identificar el talento o el potencial, la mayoría de las organizaciones todavía lo hacen de oído. Los reclutadores pasan sólo unos segundos mirando un currículum antes de decidir a quién “eliminar”. Los gerentes de contratación hacen juicios rápidos y los llaman “intuición” o pasan por alto datos concretos y contratan basándose en el encaje cultural — un problema que empeora por la ausencia general de medidas de desempeño objetivas y rigurosas. Además, se ha comprobado que la capacitación inconsciente de la parcialidad implementada por un número cada vez mayor de empresas es ineficaz y, a veces, puede incluso empeorar las cosas. A menudo, la capacitación se centra demasiado en los prejuicios individuales y demasiado poco en los prejuicios estructurales que estrechan el abanico de grupos subrepresentados.

Aunque los críticos argumentan que la IA no es mucho mejor, a menudo olvidan que estos sistemas están reflejando nuestro propio comportamiento. Somos rápidos en culpar a la IA por predecir que los hombres blancos recibirán calificaciones más altas de desempeño de sus gerentes (probablemente también hombres blancos). Pero esto está sucediendo porque no hemos podido corregir la parcialidad en las clasificaciones de desempeño que a menudo se usan en la serie de datos de entrenamiento. Nos sorprende que la IA pueda tomar decisiones de contratación parcializadas, salvo vivir bien en un mundo donde los prejuicios humanos los dominan. Solo eche un vistazo a Amazon. El clamor de las críticas sobre su algoritmo de reclutamiento parcializado ignoró la abrumadora evidencia de que la contratación actual impulsada por humanos en la mayoría de las organizaciones es inevitablemente peor. Es similar a expresar más preocupación por un número muy pequeño de muertes por accidentes automovilísticos sin conductor que los 1.2 millones de muertes por accidentes de tránsito al año causadas por humanos con fallas y posiblemente también distraídos o intoxicados.

Siendo realistas, tenemos una mayor capacidad para asegurar tanto la exactitud como la imparcialidad en los sistemas de IA que la que tenemos para influir o informar a los reclutadores y a los gerentes de contratación. Los humanos son muy buenos aprendiendo, pero muy malos desaprendiendo. Los mecanismos cognitivos que nos hacen predispuestos son a menudo las mismas herramientas que utilizamos para sobrevivir en nuestra vida cotidiana. Eßl mundo es demasiado complejo para que lo procesamos lógica y deliberadamente todo el tiempo; si lo hiciéramos, estaríamos abrumados por la sobrecarga de información y seríamos incapaces de tomar decisiones simples, como comprar una taza de café (después de todo, ¿Por qué deberíamos confiar en el barista si no lo conocemos?) Por eso es más fácil asegurar que nuestros datos y serie de entrenamientos sean imparciales que cambiar los comportamientos de Sam o Sally, de quienes no podemos eliminar la predisposición ni extraer una impresión de las variables que influyen en sus decisiones. Esencialmente, es más fácil desembalar los algoritmos de IA que entender y cambiar la mente humana.

Para ello, las organizaciones que utilizan la IA para la gestión del talento, en cualquier etapa, deben empezar por tomar las siguientes medidas.

1) Educar a los aspirantes y obtener su consentimiento. Solicite a los posibles empleados que se adhieran o proporcionen sus datos personales a la empresa, sabiendo que serán analizados, almacenados y utilizados por los sistemas de IA para tomar decisiones relacionadas con RRHH. Prepárese para explicar qué, quién, cómo y por qué. No es ético que los sistemas de IA dependan de modelos de caja negra. Si un aspirante tiene un atributo asociado con el éxito en un rol, la organización necesita no solo entender por qué ese así, sino también ser capaz de explicar los vínculos causales. En resumen, los sistemas de IA deben estar diseñados para predecir y explicar la “causalidad”, no solo para encontrar la “correlación”. También debe asegurarse de preservar el anonimato del aspirante para proteger los datos personales y cumplir con el GDPR, las leyes de privacidad de California y regulaciones similares.

2) Invertir en sistemas que optimicen la equidad y la precisión. Históricamente, los psicólogos organizacionales han señalado una disminución en la precisión cuando las evaluaciones de los aspirantes se optimizan para ser justas. Por ejemplo, muchas investigaciones académicas indican que, si bien las pruebas de capacidad cognitiva son un indicador constante del desempeño en el trabajo, particularmente en los trabajos de alta complejidad, su despliegue tiene un impacto adverso en los grupos subrepresentados, especialmente en los individuos con un estatus socioeconómico más bajo. Esto significa que las empresas interesadas en fomentar la diversidad y crear una cultura inclusiva a menudo hacen menos hincapié en las pruebas cognitivas tradicionales a la hora de contratar nuevos trabajadores, de modo que los diversos aspirantes no se vean perjudicados en el proceso. Esto se conoce como la compensación entre la equidad y la precisión.

Sin embargo, esta compensación se basa en técnicas de hace medio siglo, antes del advenimiento de los modelos de IA que pueden tratar los datos de manera muy diferente a los modelos tradicionales. Cada vez hay más pruebas de que la IA podría superar esta compensación al implementar algoritmos de puntuación más dinámicos y personalizados que son sensibles tanto a la precisión como a la equidad, haciéndolo óptimo para una combinación de ambos. Por lo tanto, los desarrolladores de IA no tienen excusa para no hacerlo. Además, debido a que estos nuevos sistemas ya existen, deberíamos preguntarnos si el uso generalizado de evaluaciones cognitivas tradicionales, que se sabe que tienen un impacto adverso en las minorías, debería continuar sin alguna forma de mitigación de parcialidades.

3) Desarrollar sistemas de código abierto y auditorías de terceros. Responsabilice a las empresas y a los desarrolladores permitiendo que otros auditen las herramientas que se utilizan para analizar sus aplicaciones. Una solución es el código abierto público, pero con aspectos críticos de la tecnología de IA que utiliza la organización. Para los componentes patentados, las auditorías de terceros realizadas por expertos fidedignos en el campo son una herramienta que las empresas pueden utilizar para mostrar al público cómo están mitigando los prejuicios.

4) Seguir las mismas leyes — así como las prácticas de uso y recolección de datos — utilizadas en la contratación tradicional. Los sistemas de IA no deben utilizar ningún dato que no deba recopilarse o incluirse en un proceso de contratación tradicional por razones legales o éticas. Nunca se debe ingresar información privada sobre condiciones físicas, mentales o emocionales, información genética y uso o abuso de sustancias.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.