La identificación de emociones ¿quién controla esta industria de los algoritmos de reconocimiento facial?

0
797
PBC -comparte

 

Quizá haya oído hablar de sistemas de inteligencia artificial (IA) capaces de realizar entrevistas de trabajo. Puede que incluso usted mismo ya haya sido entrevistado por una. Algunas empresas como HireVue afirman que su software es capaz de analizar entrevistas en vídeo para determinar el «nivel de empleabilidad» de cada candidato. 

 

Estos algoritmos no solo se fijan en las expresiones y en la postura, también indican a los empleadores si el entrevistado es tenaz o bueno para trabajar en equipo, una evaluación que podría podrían influir mucho en el futuro de un candidato. En EE. UU. y Corea del Sur, donde la contratación asistida por IA se ha vuelto muy popular, los consultores laborales han empezado a preparar a sus clientes para que sepan abordar una entrevista liderada por un algoritmo. Este tipo de tecnología también se está implementando en las aulas escolares y ya se ha utilizado en distintos estudios para detectar mentiras en vídeos en las salas del poder judicial.

 

Pero muchas de las cosas que prometen estos sistemas de IA no cuentan con ningún tipo de respaldo científico. No existen estudios sólidos ni revisados por expertos que demuestren que analizar la postura corporal o las expresiones faciales ayuda a identificar a los mejores candidatos (en parte porque las empresas no revelan sus métodos). Como resultado, todo el bombo alrededor del reconocimiento de emociones, cuya industria se prevé que superará los 23.000 millones de euros para 2023, ha provocado el rechazo de los especialistas en ética tecnológica y de los activistas. Todos ellos temen que esta tecnología genere el mismo tipo de problemas de discriminación que las condenas predictivas y los algoritmos que deciden a quién alquilar un inmueble.

 

La creciente popularidad de la tecnología también preocupa a los investigadores. Muchos coinciden en que su trabajo, en el que utilizan varias técnicas (como análisis de microexpresiones y de la voz) para distinguir e interpretar las expresiones humanas, se está incorporando y utilizando con fines comerciales que no se basan en la ciencia. Creen que la falta de regulación gubernamental no solo es mala para los usuarios. También lo es para ellos.

 

Los investigadores del reconocimiento de emociones son plenamente conscientes de sus limitaciones. Los que entrevistamos para nuestro artículo tuvieron mucho cuidado con las afirmaciones sobre lo que su trabajo es capaz de hacer y lo que no. Muchos destacaron que el reconocimiento de emociones en realidad no sirve para evaluar las emociones internas y la experiencia de una persona. Solo permite estimar cómo otras personas percibirían las emociones de ese individuo, o sugerir tendencias generales basadas en la población (como una película que provoca, de media, una reacción más positiva que otra). «Ningún investigador serio afirmaría que es capaz de analizar las partes que se mueven en la cara y saber lo que piensa la gente», asegura la experta en informática afectiva de la Universidad de Augsburgo (Alemania) Elisabeth André.

Leer más aquí

Print Friendly, PDF & Email

Leave a reply

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.