O Facebook desativou mais uma inteligência artificial (IA) depois de um novo caso de racismo. Após a reprodução de um vídeo do The Daily Mail, que trazia trechos com homens negros, usuários foram questionados pela tecnologia da rede social se gostariam de "continuar vendo vídeos sobre primatas". Após investigação, a empresa considerou o erro "inaceitável" e pediu desculpas.
O caso vem sendo analisado pela rede social "para evitar que isso aconteça novamente". No vídeo em questão, em outros trechos, eram exibidos clipes também de policiais brancos, mas nenhum macaco ou primata é mostrado. Darci Groves, ex-gerente de design de conteúdo do Facebook, revelou o caso à empresa.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
"Como dissemos, embora tenhamos feito melhorias em nossa IA, sabemos que ela não é perfeita e temos mais progresso a fazer. Pedimos desculpas a qualquer pessoa que possa ter visto essas recomendações ofensivas", informou Dani Lever, porta-voz do Facebook, em comunicado.
Ao portal The Verge, a empresa confirmou que o recurso de recomendação de tópicos foi desativado por completo. Isso revela, no entanto, que o debate sobre ética na inteligência artificial ainda precisa avançar. Em nota publicada em julho, a União Americana pelas Liberdades Civis (ACLU) pediu ao governo de Joe Biden, presidente dos EUA, por "medidas concretas para trazer os direitos civis e a equidade para a vanguarda de suas políticas de IA e tecnologia".
Categorias