A empresa também restringe o uso de tecnologia de voz neural personalizada devido a preocupações com deepfake
A Microsoft está reformulando suas políticas de ética em inteligência artificial e não permitirá mais que as empresas usem sua tecnologia para fazer coisas como inferir emoções, gênero ou idade usando tecnologia de reconhecimento facial, informou a empresa.
Como parte de seu novo “padrão de IA responsável”, a Microsoft diz que pretende manter “as pessoas e seus objetivos no centro das decisões de design do sistema”. Os princípios de alto nível levarão a mudanças reais, na prática, diz a empresa, com alguns recursos sendo ajustados e outros retirados de venda.
Controvérsia
A tecnologia de reconhecimento facial é assunto de discussões há tempos. No Brasil, o uso do sistema no Metrô de São Paulo foi proibido, mas continua se espalhando por outros lugares do mundo. Em Moscou, passageiros de 240 estações de metrô já podem realizar pagamentos através desse mecanismo.
O serviço Azure Face da Microsoft, por exemplo, é uma ferramenta de reconhecimento facial usada por empresas como a Uber como parte de seus processos de verificação de identidade. Agora, qualquer empresa que queira usar os recursos de reconhecimento facial do serviço precisará se inscrever ativamente, incluindo aquelas que já o incorporaram em seus produtos, para provar que estão correspondendo aos padrões de ética de IA da Microsoft e que os recursos beneficiam o usuário final e sociedade.
No início deste ano, a Microsoft começou a colocar marcas d’água em suas vozes sintéticas, incorporando pequenas flutuações inaudíveis na saída, o que significava que a empresa poderia dizer quando uma gravação foi feita usando sua tecnologia. “Com o avanço da tecnologia neural TTS, que torna a fala sintética indistinguível das vozes humanas, surge o risco de deepfakes prejudiciais”, alertou Qinying Liao, da Microsoft.
Mudanças
Com a suspensão do desenvolvimento da Inteligência Artificial para reconhecimento facial da Microsoft, novos usuários do projeto não mais terão acesso aos atributos de detecção de emoções e características físicas. Clientes antigos ainda poderão utilizá-los até 30 de junho de 2023.
Além desta mudança de planos, a Microsoft também compartilhou pela primeira vez sua estrutura de Parâmetros de IA Responsável. As diretrizes ilustram o processo decisório da companhia, que tem como princípios a inclusão, a privacidade e a transparência em relação ao público.
A Microsoft não está descartando totalmente o reconhecimento de emoções – a empresa ainda o usará internamente, para ferramentas de acessibilidade como Seeing AI, que tentam descrever verbalmente o mundo para usuários com problemas de visão.
As novas diretrizes prometem mais justiça na tecnologia de “speech-to-text” (fala para texto), controles mais rígidos para voz neural e requisitos “adequados ao propósito” da Microsoft, o que acaba por excluir o sistema de detecção de emoções. Essa decisão, vinda de uma empresa de tão grande porte, pode gerar impactos significativos na indústria tecnológica.