O Twitter publicou no último domingo (20) um pedido oficial de desculpas por um algoritmo de corte de imagem de viés racista, após denúncias de diversos usuários que descobriram que o recurso focava automaticamente em rostos brancos em vez de negros. A empresa, a princípio, afirma ter testado o serviço antes de usar, mas, perante várias evidências, reconheceu que não foi o bastante.
Quando o Twitter começou a utilizar a ferramenta de corte inteligente em 2018, a explicação da empresa era de que um algoritmo iria determinar a parte mais "saliente" da imagem, aquela onde normalmente os olhos do usuário são atraídos, para fazer um recorte como prévia da fotografia de visualização.
Como esta palavra "saliente" permite uma interpretação subjetiva, logo começaram algumas especulações sobre o que seria exatamente esse foco. A princípio, ficou claro que o item prioritário do algoritmo seriam os rostos. Mas ninguém conseguiu determinar se seriam rostos sorridentes, ou sisudos, ou se a sua luminosidade teria alguma influência na priorização.
any guesses? pic.twitter.com/9aIZY4rSCX
— Colin Madland (@colinmadland) September 19, 2020
Os cortes tendenciosos
Esses cortes de imagens têm o objetivo de evitar que elas ocupem muito espaço no feed principal e também para permitir que um número maior de imagens seja mostrado num mesmo tuíte. Porém, um estudante de doutorado chamado Colin Madland começou a desconfiar de um viés racial quando usava o software de videoconferência Zoom.
Ao postar uma imagem da live, retratando a si próprio, Madland, que é branco, percebeu que a imagem de um colega negro foi apagada da chamada do Zoom porque o algoritmo do Twitter cortou automaticamente a imagem, e mostrou somente a de Madland.
thanks to everyone who raised this. we tested for bias before shipping the model and didn't find evidence of racial or gender bias in our testing, but it’s clear that we’ve got more analysis to do. we'll open source our work so others can review and replicate. https://t.co/E6sZV3xboH
— liz kelley (@lizkelley) September 20, 2020
Após tuitar que a empresa não havia encontrado nenhum tipo de tendência, a porta-voz do Twitter, Liz Kelly, afirmou que a empresa irá abrir o código-fonte de seu trabalho para quem se interessar em revisá-lo ou reproduzi-lo.
Também o Diretor de Tecnologia (CTO) da empresa, Parag Agarwal, se manifestou afirmando que o modelo necessita de melhorias contínuas e reconhecendo que a equipe está "ansiosa para aprender" com essa experiência.
Posicionamento oficial
Por meio do seu perfil oficial, o Twitter também se posicionou:
Fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero. Está claro que temos mais análises a fazer. Continuaremos compartilhando nossos aprendizados e medidas, e abriremos o código para que outros possam revisá-lo. https://t.co/yZphB9pK5p
— Twitter Brasil em ?? (@TwitterBrasil) September 21, 2020
Fontes
Categorias