A Microsoft está atualizando seu padrão de IA responsável e revelou que está removendo os recursos de reconhecimento facial e emocional do Azure Face (na maior parte).

O Padrão de IA Responsável (abre em uma nova guia) é o conjunto interno de regras da Microsoft para criar sistemas de IA. A empresa quer que a IA seja uma força positiva no mundo e nunca seja mal utilizada por maus atores. É um padrão que nunca antes foi compartilhado com o público. No entanto, com esta nova mudança, a Microsoft decidiu que agora é a hora.

O software de reconhecimento facial e emocional tem sido controverso, para dizer o mínimo. Muitas organizações estão pedindo que essa tecnologia seja banida. Fight for the Future, par exemple, a écrit une lettre ouverte en mai demandant à Zoom d'arrêter son propre développement de logiciel de suivi émotionnel et l'a qualifié d '»invasif» et de «violation de la vie privée et des droits do homem".

Mudança de política

Sem surpresa, a Microsoft modificará seu serviço Azure Face para atender aos requisitos de seu novo padrão de IA responsável. Primeiro, a empresa está removendo o acesso público à capacidade de análise de emoções da IA. Em segundo lugar, o Azure Face não poderá mais identificar as características faciais de uma pessoa, incluindo "sexo, idade, sorriso, barba, penteado e maquiagem.

O motivo da retirada é que a comunidade científica global ainda não tem um "consenso claro sobre a definição de 'emoções'". Natasha Cramption, diretora responsável pela inteligência artificial da Microsoft, disse que especialistas dentro e fora da empresa levantaram preocupações. O problema está nos “desafios de como as inferências se generalizam entre os casos de uso, regiões e demografia, e o aumento das preocupações com a privacidade…”

Além do Azure Face, a voz neural personalizada da Microsoft terá restrições semelhantes. A Voz Neural Personalizada (abre em uma nova guia) é um aplicativo de conversão de texto em fala incrivelmente realista. Agora, o serviço será limitado a alguns "clientes e parceiros gerenciados", que são pessoas que trabalham diretamente com as equipes de contas da Microsoft. A empresa diz que, embora a tecnologia tenha um grande potencial, ela pode ser usada para roubo de identidade. Para continuar a ter acesso ao Neural Voice, todos os clientes existentes devem enviar um formulário de inscrição e ser aprovados pela Microsoft. Eles devem ser aprovados até 30 de junho de 2023 e, caso não sejam selecionados, esses clientes não terão mais acesso ao Neural Voice.

ainda no trabalho

Apesar de tudo o que foi dito, a Microsoft não está abandonando completamente sua tecnologia de reconhecimento facial. O anúncio é apenas para acesso público. Sarah Bird, gerente de projetos de grupo sênior da Azure AI, escreveu sobre o reconhecimento facial responsável (abre em uma nova guia). E nesse artigo, afirma que "a Microsoft reconhece que esses recursos podem ser úteis quando usados ​​para uma variedade de cenários de acessibilidade controlada". De acordo com um representante, um desses cenários é o Seeing AI (abre em uma nova guia), um aplicativo para iOS que ajuda pessoas com deficiência visual a identificar pessoas e objetos ao seu redor.

É bom ver outro gigante da tecnologia reconhecer os problemas de reconhecimento facial e o potencial de abuso. A IBM fez algo semelhante em 2020, embora sua abordagem seja mais absoluta.

Em 2020, a IBM anunciou que estava abandonando seu trabalho de reconhecimento facial porque a empresa temia que fosse usada indevidamente para vigilância em massa. Ver esses dois titãs da indústria se livrar dessa tecnologia é uma vitória para os críticos do reconhecimento facial. Se você quiser saber mais sobre IA, a TechRadar publicou recentemente um artigo sobre o que ela pode fazer pela segurança cibernética.

Compartilhe Este