Microsoft suspende uso da sua tecnologia de reconhecimento emocional

Compartilhe

O sistema funcionava por meio do software Azure Face, que utiliza Inteligência Artificial (IA) para analisar rostos em imagens.

O cancelamento do serviço considerado polêmico, ocorreu após uma revisão nas políticas da empresa, que levantou a bandeira vermelha no sistema. A conclusão é que inferir emoções e atributos de identidade padronizados pode abrir margem para erros e mau uso, declara a empresa por meio de nota.

O ajuste feito pela Microsoft se alinha ao novo documento, “Responsible AI Standard” (Padrão de Responsabilidade em Inteligência Artificial, em tradução direta), publicado, anualmente, pela empresa. O relatório estipula e atualiza regras para um uso consciente da tecnologia de Inteligência Artificial pelos produtos da companhia.

O sistema sucumbiu às polêmicas criadas (Foto: divulgação).

A medida busca avaliar o impacto do sistema nas pessoas, organizações e sociedade. No caso, o programa Azure Face permite adicionar um sistema de reconhecimento facial avançado em aplicativos de terceiros. Apesar de parecer promissora, a ferramenta biométrica deixou a desejar no embasamento científico da ferramenta de reconhecimento de emoções em pessoas. “O acesso da API a recursos que preveem atributos confidenciais também abre uma ampla gama de maneiras de uso indevido — incluindo submeter pessoas a estereótipos, discriminação ou negação injusta de serviços”, disse Sarah Bird, gerente de produtos do Grupo Principal de IA do Azure, no comunicado.

Atribuir, por meio da tecnologia de IA a identificação de identidade, como gênero e idade, também está fora de cogitação, por enquanto. Com a nova medida, a ferramenta será limitada pela Microsoft, já que, até o momento, poderia ser utilizada livremente pelos assinantes. Os novos clientes já não têm mais acesso a esse sistema de detecção, a partir dessa quinta-feira (23).

Já a cartela de clientes atuais têm até 2023 para descontinuar seu uso. A pesquisa não será totalmente encerrada internamente pela Microsoft. Bird afirma que a empresa ainda pode expandir os estudos para casos específicos. Foi citado, por exemplo, o uso da ferramenta para auxiliar pessoas com deficiência — mas a gerente não entrou em detalhes de como isso seria feito.

A polêmica não é recente. Há anos ativistas e acadêmicos já manifestavam os possíveis perigos do uso da IA livremente para qualquer um que quisesse acessar. Isso porque padronizar emoções ou definir identidade é um ponto complexo, e poderia infringir questões de privacidade e ética. A professora de pesquisa da USC Annenberg, Kate Crawford, é um dos nomes que levantam críticas sobre o uso da IA.

A especialista cita que a questão está na dificuldade em automatizar a conexão entre movimentos faciais e categorias emocionais básicas. E isso “leva à questão maior de saber se as emoções podem ser adequadamente agrupadas em um pequeno número de categorias discretas”, explica e finaliza. “A dificuldade em automatizar a conexão entre movimentos faciais e categorias básicas de emoção levam a questões mais amplas, se emoções podem ser, para começo de conversa, agrupadas adequadamente em um número pequeno de categorias,” questiona.

Você pode gostar...

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Skip to content