O Facebook anunciou na última semana que seus engenheiros de inteligência artificial adotaram uma tecnologia chamada “aprendizado autossupervisionado”, que será importante para identificar novas formas de discurso de ódio. De acordo com as informações, a rede social fez melhorias em seus sistemas de IA para detectar mensagens, imagens, vídeos e áudios com conteúdos que violem suas políticas.
O novo método possibilitará que os computadores reconheçam padrões e tomem decisões. Com a atual tecnologia de IA, baseada em aprendizado de máquina, o usuário pode treinar um computador apresentando a ele muitas fotos para que reconheça um gato, por exemplo, ao invés de ensiná-lo a descobrir como definir as características do animal, como dois olhos, orelhas pontudas e bigodes.
Já com a técnica de aprendizado autossupervisionado, é necessária uma quantidade menor de dados de preparação, se comparado ao treinamento regular em IA, o que reduz o tempo necessário para reunir dados e treinar um sistema.
Resposta rápida
Essa tecnologia pode ser uma resposta em potencial para questões relacionadas a bullying, pornografia infantil, nudez, perfis falsos, spam e discursos de ódio no Facebook. O cientista-chefe do Facebook AI, Yann LeCun, vem debatendo essa abordagem há anos, na qual, ao invés de confiar apenas nos dados que foram rotulados para fins de treinamento por seres humanos — ou mesmo em dados pouco supervisionados, como imagens e vídeos com hashtags públicas —, a autossupervisão permite tirar proveito de dados totalmente não rotulados.
Apesar de essa tecnologia de IA parecer uma solução em busca de um problema, acredita-se que o bullying virtual será um grande alvo para a primeira inteligência artificial de nível humano do mundo, algo que pode mudar a vida de muitas pessoas. “É muito fácil perder a esperança, fazer as malas e ir para casa. Mas não podemos fazer isso. Estamos aqui para trazer um futuro melhor para as pessoas, com tecnologia”, disse o diretor de tecnologia do Facebook, Mike Schroepfer.
Fontes
Categorias