Pesquisadores da Universidade de Buffalo, nos Estados Unidos, estão desenvolvendo uma ferramenta que ajuda a identificar se uma foto é ou não gerada por inteligência artificial — ou seja, uma montagem totalmente feita por um algoritmo ou que inseriu digitalmente o rosto de outra pessoa por cima da face original, como os deepfakes.
O segredo do equipamento está em analisar não o retrato como um todo, mas apenas a região das córneas. Elas possuem um padrão de reflexão de luz bastante característico que deve ser similar em ambos os olhos, tanto em intensidade quanto no formato gerado pelo reflexo.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Uma pessoa de verdade (esquerda) e outra gerada artificialmente (direita): uma não exibe padrões na reflexão dos olhos.Fonte: arXiv
Em imagens geradas artificialmente, que são feitas a partir de colagens complexas de texturas e partes do corpo, o reflexo costuma ser bem diferente de um globo ocular para o outro — e essa é a prova de que a foto em questão é falsa.
Por enquanto, o método funciona apenas em fotos e possui alguns pré-requisitos: ambos os olhos precisam estar bem visíveis na foto, como no caso de retratos com a pessoa olhando para a câmera, e sem qualquer adereço na região, o que inviabiliza a análise em caso de uso de óculos escuros, por exemplo.
Olhos gerados por algoritmo: sem padrão na reflexão.Fonte: arXiv
Além disso, eventuais edições feitas em softwares podem corrigir a discrepância na reflexão, o que geraria falsos positivos no sistema.
O método por enquanto está apenas em fase de testes, mas apresentou 94% de eficácia nas provas feitas em laboratório, que utilizaram a base de dados do site This Person Does Not Exist como acervo. O estudo completo pode ser consultado (em inglês) neste link.
Fontes
Categorias