No início do ano, ganhou notoriedade o uso de uma inteligência artificial capaz de adicionar o rosto de pessoas famosas em filmes pornográficos, o que levantou uma série de preocupações éticas por parte do público, afinal esse tipo de método poderia ser utilizado para prejudicar a reputação de pessoas famosas ou anônimas.
Agora, uma novidade desenvolvida na Universidade Estadual do Nova York (SUNY) promete servir de solução para esse problema. Também usando inteligência artificial, cientistas da instituição estadunidense criaram um modelo de visão computacional capaz de identificar características típicas desse tipo de montagem.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Segundo os pesquisadores, os vídeos falsos chamados de DeepFakes são criados com o uso de imagens estáticas do rosto de uma pessoa sobre um vídeo. Com isso, as fotos não conseguem reproduzir ações que seriam vistas em um vídeo, como a pessoa em questão piscando ou respirando. É exatamente isso que a tecnologia criada na SUNY é capaz de verificar.
Modelo de visão computacional identifica quando imagens estáticas foram usadas para manipular o visual de um vídeo falso.
Com esse novo recurso à disposição, fica mais fácil (e praticamente automático) identificar quando um vídeo é um DeepFake: até agora, isso era feito apenas com análise humana. Contudo, é menos aterrorizante saber que há uma tecnologia especializada nisso, afinal é provável que a técnica dos vídeos falsos evolua a fim de ficarem totalmente imperceptíveis a olho nu.
A inteligência artificial criada na SUNY é fruto do trabalho dos pesquisadores chineses Yuezun Li, Ming-Ching Chang e Siwei Lyu e foi publicada em um estudo disponível neste link (PDF em inglês).
Fontes
Categorias