Os deepfakes estão crescendo, em qualidade e quantidade — e isso é perigoso. O uso de modificações de imagens que imitam outras pessoas podem causar muita confusão, seja em nível pessoal em “pornografia de vingança”, ou até em relações internacionais — imagine alguém se passando por um chefe de estado durante uma videoconferência com outro governante. Por isso, é necessário criar medidas para identificar esses tipos de manipulação.
E é exatamente isso que os pesquisadores Xin Yang, Yuezin Li, Siwei Lyou almejam: “um novo método para expor imagens faciais falsas ou vídeos gerados pela inteligência artificial (comumente conhecidos como deepfakes)”, introduz o documento registrado na Universidade de Cornell, nos Estados Unidos.
Antes de mais nada, é preciso compreender como funcionam os deepfakes. A maioria usa várias imagens de uma pessoa para treinar o algoritmo, até que ele consiga gerar novas imagens faciais do alvo. O mesmo acontece com a voz sintetizada.
O grupo de Cornell já havia conseguido identificar padrões de falsificações a partir do piscar de olhos, mas as últimas gerações de deepfakes se adaptaram a isso, então os trabalhos continuaram. Agora, o trio conseguiu reconhecer manipulações a partir de uma observação muito próxima de pixels em quadros específicos.
Detectando as falhas
Em duas pesquisas mais recentes, a equipe descobriu que algumas pequenas falhas não podem ser corrigidas pelos “fakers”. Ao gerar novas expressões faciais, os algoritmos nem sempre conseguem posicionar corretamente as novas imagens nas cabeças das pessoas, acertar as condições adequadas de iluminação ou a distância da câmera.
Para fazer com que os rostos falsos se misturem com o ambiente, eles precisam ser transformados geometricamente — girados, redimensionados ou distorcidos. Esse processo deixa rastros digitais que podem ser notados em pequenos borrões ou aspectos da pele que apontam para indícios de artificialidade.
A maior barreira que os fakers encontram atualmente é não conseguirem “fabricar” rostos em 3D
Mesmo as transformações mais sutis deixam evidências e tudo isso foi ensinado a um algoritmo, que pode detectar essas diferenças mesmo quando um humano não consegue vê-las. A maior barreira que os fakers encontram atualmente é não conseguirem “fabricar” rostos em 3D. Em vez disso, é gerado um rosto bidimensional, que é redimensionado e distorcido para se ajustar aos movimentos da cabeça, de forma que se alinhe à direção que a pessoa estaria olhando.
Fonte: FastCompany/Reprodução
Como os deepfakes não fazem isso muito bem, isso abre a oportunidade de desmascará-los. “Criamos um algoritmo que calcula a direção para qual o nariz da pessoa está apontando em uma imagem. Ele também mede a direção para qual a cabeça está apontando, usando um cálculo a partir do contorno do rosto. Em um vídeo da cabeça de uma pessoa real, tudo deve se alinhar de forma bastante previsível. Em deepfakes, no entanto, eles estão freqüentemente desalinhados”, diz Siwei Lyu.
A “corrida armamentista” dos deepfakes
Como dá para notar, melhorar deepfakes e detectá-los é quase uma “corrida armamentista”, em um jogo de gato e rato. E uma das maneiras que o pessoal da Universidade de Cornell encontrou para manter a disputa à altura é “atrapalhar” o algoritmo dos fakers.
Fonte: FastCompany/Reprodução
“À esquerda, um rosto é facilmente detectado em uma imagem antes do nosso processamento. No meio, adicionamos ‘perturbações’ que fazem com que um algoritmo detecte outras faces, mas não a real. À direita estão as alterações que adicionamos à imagem, aprimoradas 30 vezes para ficarem visíveis”, explica Lyu.
O objetivo é disponibilizar uma ferramenta que possa “embaralhar” imagens para dificultar a vida dos fakers
Seu grupo encontrou uma forma de inserir ruídos imperceptíveis aos olhos humanos, capazes de enganar a detecção de rostos do algoritmo dos deepfakes. Essa técnica oculta os padrões de pixel usados pela IA para o reconhecimento da e cria “iscas” que sugerem elementos onde na verdade não existem — como parte do fundo de um ambiente ou um quadrado na roupa de uma pessoa.
Assim, sem uma biblioteca de imagens em alta resolução, fica muito mais difícil gerar imagens verossímeis. “À medida que desenvolvemos esse algoritmo, esperamos poder aplicá-lo a qualquer imagem que alguém esteja enviando para mídias sociais ou outro site online”, adianta.
O objetivo é, em breve, disponibilizar uma ferramenta que possa ser aplicada em páginas, serviços, redes sociais e outras plataformas que usem upload de imagem, de forma que os usuários possam optar por usar esse “embaralhamento” para dificultar a vida dos fakers.
Fontes
Categorias