A OpenAI apagou evidências envolvidas em um processo judicial por violação de direitos autorais, supostamente por acidente. Os dados foram encontrados pelo site The New York Times e serviam como prova em uma disputa judicial milionária.
Em dezembro de 2023, a The New York Times acusou a OpenAI de "copiar e utilizar" milhões de artigos publicados no veículo para treinar seus grandes modelos de linguagem (LLM). No processo, o Times destacou respostas do ChatGPT e do Copilot (ambos alimentados por modelos da família GPT) em que trechos inteiros eram copiados de publicações ou imitavam o estilo literário.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Na quarta-feira (20), a OpenAI informou que as evidências foram apagadas por engano. Segundo os advogados da empresa, a exclusão foi resultado de um "glitch".
"Em 14 de novembro de 2024, os demandantes foram informados que engenheiros da OpenAI apagaram todos os programas e dados gerados pela investigação que estavam guardados em máquinas virtuais dedicadas", disse a defesa do veículo.
Defesa da NYT não acredita que foi bug
A defesa da NYT "não vê motivos para acreditar" na hipótese de que foi um bug.
A OpenAI tentou recuperar os dados, mas todo o conteúdo salvo está incompleto e não é 100% confiável. "Em 19 de novembro, os demandantes perceberam que os dados recuperados não estão na estrutura ou com nomes originais e não podem ser utilizados para determinar se os artigos dos veículos foram utilizados para desenvolver os modelos do réu", alegou a defesa do requerente.
Para movimentar a disputa judicial, a NYT já teria investido US$ 1 milhão (R$ 5,8 milhões, em conversão direta). O veículo espera que a OpenAI seja responsabilizada por "bilhões de dólares em danos estatutários" pelo suposto plágio.
Fontes
Categorias