Pesquisadores da Universidade de Chicago nos Estados Unidos descobriram uma forma de impedir que inteligências artificiais violem direitos autorais: bichinhos "invisíveis". Os cientistas encontraram uma forma de "envenenar" obras originais que, quando usadas para treinar uma IA, são entendidas como imagens de animais.
Batizada de "Nightshade", a ferramenta incorpora pequenas alterações em imagens, invisíveis aos olhos humanos, mas que interferem radicalmente no treinamento de modelos generativos. Para usuários comuns, a imagem modificada é idêntica a original, enquanto para a IA ela acaba como uma foto de um animal aleatório, como se fosse uma alucinação.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Esse é um exemplo de imagem "envenenada" com pixels distorcidos com o Nightshade. (Imagem: Nightshade/Reprodução)Fonte: Nightshade/Reprodução
O mecanismo pode servir como uma solução para proteger artistas de terem suas obras usadas para treinar inteligências artificiais sem autorização. Atualmente, alguns artistas já adotam a ferramenta para resguardar suas obras, tal como a ilustradora Karla Ortiz.
A profissional percebeu que suas obras foram utilizadas para treinar modelos de ferramentas de IA como DreamUp e Stable Diffusion, mas sem consentimento ou compensação financeira. Então, a aplicação do filtro Nightshade serviu bem para preservar seus trabalhos.
"Ocorreu-me que grande parte disso é basicamente a totalidade do meu trabalho, a totalidade do trabalho dos meus colegas, a totalidade do trabalho de quase todos os artistas que conheço", reclamou Ortiz. "E tudo isso foi feito sem consentimento de ninguém, sem crédito, sem compensação, nem nada", complementou.
Como funciona o Nightshade?
O truque do Nightshade é alterar o valor dos pixels contidos nas imagens. "Máquinas só veem uma grande matriz de números, certo? Esses valores de pixels variam de 0 para 255 e isso é a única coisa que os modelos são capazes de interpretar", explicou o líder da pesquisa Shawn Shan. A ferramenta altera o valor de vários desses pixels, o suficiente para "confudir" a IA que for alimentada pela imagem.
As imagens geradas a partir de mídias envenenadas pelo Nightshade são distorcidas e quase irreconhecíveis. (Imagem: NBC News/Reprodução)Fonte: NBC News/Reprodução
Segundo o estudo, o Nightshade escolhe um conceito que melhor se enquadra para confundir a IA para um determinado prompt. Se for solicitada uma imagem de um cachorro, por exemplo, o modelo receberá uma foto distorcida com pixels de gatos.
O Nightshade não deve acabar de vez com modelos geradores de imagens, mas deve ajudará artistas a serem compensados pelo seu trabalho, acredita o professor e cientista da computação da Universidade de Chicago, Ben Zhao. "Se você é algum tipo de criador — fotógrafo, por exemplo — e você não quer qeu suas fotos sejam utilizadas para alimentar um modelo de treinamento, então pode considerar usar o Nightshade", explicou o docente.
A ferramenta Nightshade é gratuita e o grupo de pesquisa pretende manter assim. Mais informações sobre o recurso estão disponíveis no site oficial.
Fontes
Categorias