Cientistas revelaram em concurso promovido pelo Twitter nesse fim de semana que o algoritmo de corte de imagens da rede social não apenas prioriza pessoas de pele branca, prejudicando as de pele preta, mas que possui diversos preconceitos, também, em relação a vários outros grupos.
Dentre os exemplos que citaram estão islâmicos, por causa das vestimentas que cobrem suas cabeças; com deficiência, especialmente indivíduos que utilizem cadeiras de rodas; e de idade mais avançada, com cabelo branco ou grisalho.
Parham Aarabi, professor da Universidade de Toronto e coordenador da equipe por trás dos estudos, explica: "Em quase todos os principais sistemas de inteligência artificial (IA) que testamos para grandes empresas de tecnologia, encontramos preconceitos significativos. A IA tendenciosa é uma daquelas coisas que ninguém avaliou completamente; quando isso acontece, descobrimos existirem grandes problemas em todo o cenário."
Graças a seus levantamentos, o time ficou em segundo lugar da competição lançada pela própria plataforma, dedicada a premiar quem comprovasse falhas em seus sistemas durante a a Def Con, convenção para hackers. Já o vencedor demonstrou a maior probabilidade de o algoritmo do Twitter destacar rostos modificados para parecerem mais magros ou jovens.
Parham Aarabi, professor da Universidade de Toronto.Fonte: Reprodução/Patrick MacLeod
Contaminação acidental
Aarabi salienta que programas que "aprendem" com o comportamento de usuários invariavelmente são contaminados com preconceitos acidentais. Sendo assim, até mesmo a análise da quantidade de cliques em determinadas fotos os leva a "crer" que outras podem ser descartadas, marginalizando, assim, grupos relacionados a elas.
Rumman Chowdhury, diretora da equipe do Twitter que coordena a avaliação da ética de machine learning da plataforma e organizadora do concurso, acredita que treinar máquinas adequadamente é uma tarefa assustadora a profissionais. "Queremos abrir um precedente no Twitter e na indústria para a identificação proativa e coletiva de danos algorítmicos", conclui.
Fontes
Categorias