Microsoft retira Inteligencia Artificial que afirma identificar emociones

Microsoft está eliminando gradualmente el acceso público a una serie de herramientas de análisis facial impulsadas por IA. Esto incluye a una que pretendía identificar las emociones de un sujeto a partir de videos e imágenes.

Expertos criticaron el uso de dichas herramientas de «reconocimiento de emociones», calificándolas como «poco científicas». Aseguraron que las expresiones faciales que se consideran universales difieren entre las diferentes poblaciones. Además, dijeron que no es científico equiparar las manifestaciones externas de emoción con los sentimientos internos.

Lisa Feldman Barrett, profesora de psicología en la Universidad Northeastern dijo que las empresas pueden decir «lo que quieran, pero los datos son claros». La profesora realizó una revisión sobre el tema del reconocimiento de emociones impulsado por IA.

Pueden detectar un ceño fruncido, pero eso no es lo mismo que detectar la ira.

Lisa Feldman Barret, profesora de psicología en la Universidad Northeastern

La decisión es parte de una revisión más amplia de las políticas de ética de IA de Microsoft. Los Estándares de IA Responsable actualizados de la compañía se delinearon primero en 2019. Estos enfatizan la responsabilidad para averiguar quién usa sus servicios y una mayor supervisión humana sobre su aplicación.

Esto significa que Microsoft limitará el acceso a algunas funciones de sus servicios de reconocimiento facial Azure Face, y eliminará otras por completo. Sin embargo, los usuarios aún podrán solicitar su uso, siempre y cuando le digan a Microsoft exactamente cómo y dónde implementarán sus sistemas. Algunos casos de uso con un potencial menos dañino, como el desenfoque automático de rostros en imágenes y videos, seguirán siendo de acceso abierto.

Otras funciones de Azure Face serán eliminadas también

Microsoft también retirará la capacidad de Azure Face para identificar «atributos como género, edad, sonrisa, vello facial, cabello y maquillaje».

En una publicación en el blog de Microsoft, la directora responsable de IA de Microsoft, Natasha Crampton, anunció la noticia. Aseguró que los expertos resaltan que existe una falta de consenso científico sobre la definición de emociones. Así también, en los desafíos en cómo las inferencias se generalizan entre casos de uso, regiones y datos demográficos, y la mayor preocupación por la privacidad en torno a este tipo de capacidad.

Microsoft dejó de ofrecer estas funciones a los nuevos clientes a partir del 21 de junio, mientras al resto de clientes se les revocará el acceso el 30 de junio de 2023.