

Microsoft está actualizando su estándar de inteligencia artificial responsable y reveló que está eliminando las capacidades de reconocimiento facial y de emociones de Azure Face (en su mayor parte).
El Estándar de IA responsable (se abre en una nueva pestaña) es el conjunto interno de reglas de Microsoft para crear sistemas de IA. La empresa quiere que la IA sea una fuerza positiva en el mundo y que nunca sea mal utilizada por malos actores. Es un estándar que nunca antes se había compartido con el público. Sin embargo, con este nuevo cambio, Microsoft ha decidido que ahora es el momento.
El software de reconocimiento facial y emocional ha sido controvertido, por decir lo menos. Muchas organizaciones están pidiendo que se prohíba esta tecnología. Fight for the Future, par exemple, a écrit une lettre ouverte en mai demandant à Zoom d'arrêter son propre développement de logiciel de suivi émotionnel et l'a qualifié d '"invasif" et de "violation de la vie privée et des droits del hombre".
Cambio de política
Como era de esperar, Microsoft modificará su servicio Azure Face para cumplir con los requisitos de su nuevo estándar de IA responsable. Primero, la compañía está eliminando el acceso público a la capacidad de análisis de emociones de la IA. En segundo lugar, Azure Face ya no podrá identificar las características faciales de una persona, incluidos "género, edad, sonrisa, vello facial, peinado y maquillaje.
El motivo de la retirada es que la comunidad científica mundial aún no tiene un "consenso claro sobre la definición de 'emociones'". Natasha Cramption, directora responsable de inteligencia artificial de Microsoft, dijo que los expertos dentro y fuera de la empresa han expresado su preocupación. El problema radica en "los desafíos de cómo las inferencias se generalizan entre casos de uso, regiones y datos demográficos, y la mayor preocupación por la privacidad..."
Además de Azure Face, la voz neuronal personalizada de Microsoft verá restricciones similares. Custom Neural Voice (se abre en una nueva pestaña) es una aplicación de texto a voz increíblemente realista. Ahora, el servicio se limitará a unos pocos "clientes y socios administrados", que son personas que trabajan directamente con los equipos de cuentas de Microsoft. La compañía dice que si bien la tecnología tiene un gran potencial, puede usarse para suplantar la identidad. Para continuar teniendo acceso a Neural Voice, todos los clientes existentes deben enviar un formulario de inscripción y ser aprobados por Microsoft. Deben estar aprobados antes del 30 de junio de 2023 y, de no ser seleccionados, estos clientes ya no tendrán acceso a Neural Voice.
todavía en el trabajo
A pesar de todo lo dicho, Microsoft no abandona del todo su tecnología de reconocimiento facial. El anuncio es solo para acceso público. Sarah Bird, directora sénior de proyectos de grupo en Azure AI, escribió sobre el reconocimiento facial responsable (se abre en una pestaña nueva). Y en ese artículo, afirma que "Microsoft reconoce que estas características pueden ser útiles cuando se usan para una variedad de escenarios de accesibilidad controlada". Según un representante, uno de esos escenarios es Seeing AI (opens in a new tab), una aplicación de iOS que ayuda a las personas con discapacidad visual a identificar a las personas y los objetos que las rodean.
Es bueno ver a otro gigante tecnológico reconocer los problemas de reconocimiento facial y el potencial de abuso. IBM hizo algo similar en 2020, aunque su enfoque es más absoluto.
En 2020, IBM anunció que abandonaría su trabajo en el reconocimiento facial porque la empresa temía que se utilizara indebidamente para la vigilancia masiva. Ver a estos dos titanes de la industria deshacerse de esta tecnología es una victoria para los críticos del reconocimiento facial. Si desea obtener más información sobre la IA, LaComparacion publicó recientemente un artículo sobre lo que puede hacer por la ciberseguridad.