Detectores de deepfake estão cada vez mais ineficazes, segundo um recente estudo. Desde sua popularização em 2017 através do Reddit, os vídeos falsos ficaram cada vez mais convincentes e realistas, tornando o trabalho desses detectores ainda mais desafiador.
Em resumo, deepfake é uma tecnologia que usa inteligência artificial para manipular vídeos gerando resultados com alto nível de fotorrealismo. Essa tecnologia já foi utilizada, inclusive, para criar discursos fictícios de políticos influentes como Barack Obama.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Atualmente, é possível editar grande parte do vídeo original: áudio, expressões faciais e movimentos, inclusive dos olhos, podem ser facilmente alterados. Diante disso, um grupo de pesquisadores da Universidade da Califórnia em San Diego desenvolveu um método relativamente simples para provar a ineficácia dos detectores de deepfake de última geração.
A imagem abaixo mostra o primeiro resultado de um detector sem interferência da equipe, que conseguiu identificar alterações no vídeo falso de Barack Obama com sucesso. Contudo, após aplicação do método desenvolvido pela equipe, o resultado foi diferente e o vídeo foi considerado real.
Detectores de vídeos falsos examinam um frame de cada vez, já que é impossível fazer com que um frame manipulado pareça natural na “superfície”. No entanto, os pesquisadores desenvolveram um método pelo qual é possível injetar dados contraditórios em cada frame, confundido os detectores que se tornam momentaneamente inaptos para mapear manipulações.
O estudo indica que os atuais mecanismos para identificar deepfake são extremamente limitados. Esse resultado levanta sérias questões, uma vez que essa tecnologia está em evoluindo e é constantemente utilizada para disseminar notícias falsas.
Fontes