Três anos atrás, ainda em 2015, um engenheiro de software chamado Jacky Alciné denunciou o sistema de reconhecimento de imagem do Google por identificar pessoas negras como gorilas. A empresa considerou o erro um absurdo e resolveu focar em conseguir uma solução para que seu algoritmo não haja de maneira racista.
De lá para cá, casos como o do engenheiro não aconteceram mais, mas será que a Google realmente arrumou uma maneira de driblar essa falha na inteligência artificial? Na verdade, não. O que a empresa fez foi a clássica gambiarra: em vez de ensinar o sistema a diferenciar, resolveu não mais identificar gorilas de maneira algum, assim, retirando o risco do erro.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Google Photos, y'all fucked up. My friend's not a gorilla. pic.twitter.com/SMkMCsNVX4
— Jacky Alciné (@jackyalcine) 29 de junho de 2015
Fazendo testes
Uma reportagem da Wired testou de inúmeras maneiras o identificador de imagens do Google Fotos, inclusive subindo uma infinidade de imagens de quase todos os tipos de primatas. A plataforma foi capaz de identificar praticamente todas as espécies, menos gorilas e chimpanzés.
A tecnologia de rotulagem de imagem ainda é nova e, infelizmente, não está nem perto de ser perfeita
A publicação também descobriu que a Google restringiu o seu reconhecimento em outras categorias raciais: procurando por "black man" (homem negro) ou "black woman" (mulher negra), por exemplo, apenas retornou fotos de pessoas em preto e branco, ordenadas por gênero, mas não por raça.
Trabalho complicado?
A Google confirmou o bloqueio dessas “tags” no Google Fotos logo após o incidente com Alciné. “A tecnologia de rotulagem de imagem ainda é nova e, infelizmente, não está nem perto de ser perfeita", afirmou um representante da empresa. É difícil dizer se a Google não foi capaz de solucionar o problema, se não quis aplicar esforços nisso ou se apenas preferiram não arriscar que o erro se repita.
Seja como for, esse incidente serve para mostrar o quão complicado é lidar com o treinamento de um sistema da inteligência artificial mesmo em coisas relativamente simples como identificação de imagens.
Fontes
Categorias