A Microsoft vai suspender as vendas de ferramentas de reconhecimento facial com inteligência artificial (IA), incluindo um software capaz de identificar emoções a partir das imagens do rosto de uma pessoa. A decisão foi anunciada na terça-feira (21).
Segundo a empresa, a utilização destes programas tem levantado discussões relativas à privacidade dos usuários. Tais soluções também foram bastante criticadas por especialistas, devido à incapacidade da tecnologia de relacionar a expressão facial com o estado emocional em algumas situações.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
A decisão foi influenciada por uma grande revisão nas políticas de ética de IA da gigante da tecnologia, que enfatiza uma maior responsabilidade no uso das ferramentas inteligentes. Dessa forma, o acesso a alguns serviços de reconhecimento facial (Azure Face) ficará limitado, enquanto outros recursos serão completamente removidos.
Usuários do Azure Face terão que informar como e onde a tecnologia será implantada.Fonte: Pixabay
No comunicado, a Microsoft confirmou ainda a aposentadoria da funcionalidade de identificação de características físicas (idade, barba, cabelo, sexo etc) realizada pelo Azure Face. Por outro lado, soluções com potencial prejudicial menor, como aquelas que desfocam rostos em fotos e vídeos, continuarão disponíveis.
Clientes antigos terão acesso até 2023
A partir da suspensão da comercialização das tecnologias de reconhecimento facial com IA, a Microsoft não permitirá mais o acesso de novos usuários às ferramentas de detecção de emoções e atributos físicos. Já os clientes antigos poderão usá-las até o dia 30 de junho de 2023.
Enquanto o acesso público passa a ser restrito, alguns destes recursos continuarão em uso pela empresa no app Seeing AI. A plataforma utiliza aprendizado de máquina na descrição de cenas para pessoas com deficiência visual.
Restrições parecidas também estão previstas para a função Custom Neural Voice, que possibilita a criação de vozes sintéticas com IA baseadas em gravações de pessoas reais. A tecnologia é uma espécie de “deepfake de áudio”, tendo a capacidade de enganar os ouvintes, uso que a desenvolvedora pretende evitar.