TAMAÑO DE LA LETRA 
Maximizar Fuente Minimizar Fuente
Jose Rodríguez, Data Protection Officer en Cornerstone OnDemand
Como conseguir una IA ética en los Recursos Humanos
POR Jose Rodríguez, Data Protection Officer en Cornerstone OnDemand, 00:01 - 02 de Noviembre del 2021
Como conseguir una IA ética en los Recursos Humanos

Los equipos de RRHH están adoptando cada vez más las aplicaciones de IA. Estos equipos utilizan las aplicaciones para ayudar a la contratación, la gestión del rendimiento y la sucesión, y la asignación de tareas.

Toda esta IA ha desencadenado la necesidad de desarrollar normas de cumplimiento. Pero como la tecnología ha avanzado más rápido que la normativa, las organizaciones se han encargado de autoevaluar la eficacia de sus aplicaciones de IA.

Pero eso está a punto de mejorar.

La Unión Europea ha propuesto recientemente un marco normativo basado en el riesgo que obliga a las organizaciones a cumplir con nuevas normas de cumplimiento para adoptar la IA. La propuesta identifica específicamente los sistemas de IA para RRHH, entre otros, como de alto riesgo y aconseja una supervisión y unos requisitos adecuados para abordar las preocupaciones sobre seguridad y derechos humanos fundamentales.

Según la propuesta, los sistemas de IA de alto riesgo requerirán supervisión humana, medidas de transparencia añadidas, datos de formación de alta calidad para evitar sesgos y documentación para que los reguladores y los usuarios entiendan cómo funciona el sistema.

1. La IA y sus nuevas normas

No cabe duda de que se necesitan buenas normas de cumplimiento. Los sistemas de IA en RRHH harán recomendaciones que afectan a millones de personas. Y no estamos hablando de motores de recomendación que influyan en las personas para que compren una PlayStation en lugar de una Xbox (¡también puedo ayudarte con eso si necesitas consejo!).

Esta IA se encargará de influir en cuestiones personales serias e impactantes como: ¿Voy a conseguir este trabajo o no? ¿Voy a conseguir este ascenso o no? ¿Voy a tener acceso a la formación adecuada?

Y por eso se señala a los RRHH como de alta responsabilidad y, por tanto, de alto riesgo.

Aunque todavía no sabemos cuándo adoptará la UE el reglamento propuesto o su versión final, las normas de cumplimiento van a ser más estrictas. Corresponde a las organizaciones considerar el riesgo y operar de forma ética, tanto si ya utilizan sistemas de IA como si están pensando en adoptarlos.

Probando y supervisando la tecnología, desarrollando un profundo conocimiento de su funcionamiento y aumentando la transparencia sobre su utilización, los equipos de RRHH pueden beneficiarse de los sistemas de IA a la vez que protegen a su gente.

2. La gestión de riesgos de la IA en los RRHH hoy en día

En la industria de los RRHH, todavía no hemos establecido el cursor de la gestión de riesgos entre "seamos cautelosos y tomemos el tiempo para probar" e "innovemos y avancemos rápido".

HireVue, una empresa de tecnología de entrevistas por vídeo, es un ejemplo de una organización que está innovando rápidamente, pero que en última instancia está deteniendo el avance de la IA debido a la preocupación por los derechos humanos fundamentales. La organización utilizaba antes la IA para evaluar visualmente la capacidad de contratación de un candidato durante las entrevistas por vídeo. Tras reconocer que los datos no verbales apenas contribuían a la capacidad de predicción de la IA y la creciente preocupación por la posibilidad de que la tecnología contribuyera a un posible sesgo de género y racial, HireVueeliminó las expresiones faciales como factor en sus algoritmos. Y reiteraron su postura contra esta práctica en un reciente compromiso de transparencia. Las normas y regulaciones de cumplimiento basadas en el riesgo pueden ayudar a evitar estos problemas.

3. Categorizar correctamente los datos que recopila la IA

En Cornerstone, queremos aprender de estas experiencias y desarrollar un enfoque seguro que integre las consideraciones de riesgo en los equipos de desarrollo.

Por ejemplo, evitamos utilizar información que pueda dar lugar a discriminación. Hay revisiones continuas de la calidad de los datos, así como del funcionamiento de los algoritmos, y se utiliza más de un tipo de cálculo para reducir el riesgo de sesgo. Los algoritmos no toman decisiones por los profesionales de RRHH, sino que permiten a los individuos revisar lo que la máquina propone como entrada para su proceso de toma de decisiones.

Esta práctica nos proporciona una revisión humana y nos permite trabajar en la precisión del algoritmo. Si de repente nos damos cuenta de que la gente rechaza la salida del algoritmo en un porcentaje elevado, sabemos que algo va mal y podemos investigar.

Nuestro sistema permite a nuestro equipo abordar de forma proactiva los problemas de riesgo y seguridad, lo que puede ayudar a evitar trampas de cumplimiento -por no mencionar el sesgo y la discriminación involuntarias-, incluso mientras desarrollamos aplicaciones de IA más sólidas.

4. Preguntas que hay que hacer al examinar los sistemas de IA

Mientras que empresas como Cornerstone y HireVue están desarrollando IA directamente para los equipos de RRHH, muchos subcontratan herramientas de IA de proveedores. A medida que los líderes de RRHH evalúan las soluciones de IA para implementar en su organización, hacer estas preguntas puede ayudar a reducir el riesgo y mantener el cumplimiento:

  • ¿Quién construyó la tecnología?, ¿cómo y de dónde provienen los datos?

Entender dónde y cómo se desarrolla la tecnología de IA puede permitir a los equipos de RRHH investigar el marco ético de su proveedor. Y saber de dónde provienen los datos puede dar a los equipos de RRHH más confianza y control sobre los resultados. En particular, se deben examinar los tipos de datos y las variables discriminatorias, el tamaño del conjunto de datos (¿es la población de origen de los datos lo suficientemente grande?), y si los datos se revisan regularmente para garantizar su calidad.

  • ¿Qué controles y equilibrios existen para reforzar el uso ético?

Preguntar al proveedor sobre sus controles y equilibrios proporciona a los equipos de RRHH la confirmación de que se están asociando con una organización comprometida con el uso ético. Conocer el proceso de pruebas del proveedor también permite a los equipos de RRHH saber qué pruebas se realizan durante el desarrollo. Por ejemplo, se puede preguntar si el proveedor tiene un DPO y si éste participa en el diseño, el desarrollo o las pruebas de los algoritmos.

  • ¿Cómo voy a utilizar la tecnología?

Si los equipos de RRHH se limitan a aceptar todas las recomendaciones del algoritmo, podrían a) no reconocer las desviaciones en los resultados y, lo que es peor, b) no aportar el valor añadido del ojo humano. Y si no supervisan la tecnología de forma continuada, los equipos no podrán escalar las preocupaciones desde el principio. Y recuerde: si los humanos que utilizan la tecnología no están capacitados para identificar los sesgos, el sistema tampoco lo estará. El ciclo de retroalimentación (tanto manual como automatizado) es muy importante, por ejemplo, establecer una revisión periódica de los resultados.

  • ¿Cómo utilizarán mis empleados la tecnología para detectar el sesgo?

No siempre es obvio el origen de las decisiones algorítmicas. Animo a los usuarios a que observen los resultados de la IA y se pregunten "¿cuál es la relación?". Aunque no podamos explicar en detalle cada recomendación individual, podemos explicar la lógica que hay detrás del sistema en su conjunto de una manera que todos entiendan. Así tendremos a todo el colectivo mirando los resultados.

Conclusión, la importancia de supervisar el algoritmo de la IA

Tanto los proveedores como los usuarios tienen un papel que desempeñar para garantizar que el uso de la IA sea ético y conforme a la normativa mediante la responsabilidad compartida de las pruebas y la supervisión. Los proveedores deben probar la tecnología en busca de sesgos a lo largo del desarrollo, pero no hay forma de garantizar que vaya a ser 100% perfecta. Por eso los usuarios también tienen la responsabilidad de seguir supervisando la tecnología de forma continua. Pueden producirse desviaciones que son muy difíciles de prever, por lo que es necesario probar la tecnología a medida que se construye y supervisar la tecnología a medida que se utiliza.

A medida que los profesionales de RRHH dan los siguientes pasos para imponer el uso ético de la IA, pueden conceptualizar su papel imaginando un piloto y un avión. Si bien todos tenemos esta idea del piloto sosteniendo los controles de vuelo y dirigiendo el avión, pero no ha funcionado así durante años. En su lugar, el piloto introduce la ruta de vuelo en un ordenador, y el ordenador hace girar el avión.

Los profesionales de RRHH se van a convertir en pilotos de algoritmos de IA. Con más regulaciones por delante, entender y guiar la tecnología en la dirección correcta será primordial para su éxito.

*Si te ha resultado interesante este artículo, te animamos a seguirnos en TWITTER y a suscribirte a nuestra NEWSLETTER DIARIA.

RRHHDigital

ENVÍE SU COMENTARIO
coffee break
Lo más leído
Los lectores Opinan

¿Cómo ves la inclusión de personas con discapacidad en las empresas de nuestro país?
Genial, ya que las empresas apuestan por ello y creo que somos referencia en ese tema
Poco a poco las empresas van apostando por ello pero queda dar un pasito más
Mal, creo que tenemos mucho que mejorar
No creo que las empresas españolas apuesten por la inclusión de personas con discapacidad
rrhhdigital-blanco
RRHH Digital
El periódico online de recursos humanos y empleo
Otros periódicos del Grupo Ediciones Digitales Siglo 21
Secciones
Contacto

Aviso Legal
© CopyRight 2021 RRHHDigital