Homem processa dona do ChatGPT após IA inventar que ele matou os próprios filhos

3 min de leitura
Imagem de: Homem processa dona do ChatGPT após IA inventar que ele matou os próprios filhos

Um cidadão da Noruega iniciou uma ação judicial contra a OpenAI, dona do ChatGPT. Ele acusa a plataforma de inteligência artificial (IA) de inventar uma história trágica envolvendo a própria família e acusar o usuário de ser um criminoso condenado.

Tudo começou quando o homem perguntou ao chatbot o que ele sabia sobre Arve Hjalmar Holmen, que é o seu nome completo. A resposta do ChatGPT era a de que o rapaz "ganhou atenção devido a um trágico evento" que nunca aconteceu: o assassinato de dois dos seus três filhos pequenos.

Segundo a plataforma de inteligência artificial, Arve teria sido condenado a 21 anos de prisão, a pena máxima no país, por um crime envolvendo meninos de sete e dez anos de idade, além da tentativa de assassinato de uma terceira criança. As vítimas teriam sido encontradas em um lago de Trondheim, a cidade natal da família.

O problema? Nada disso aconteceu, nem mesmo com uma pessoa com o mesmo nome de Arve. Porém, o ChatGPT “acertou” a cidade e também que ele de fato tem três filhos, dois deles sendo meninos. Sentindo-se insultado, ele abriu uma ação judicial contra a plataforma pedindo uma multa à companhia, que ela remova o resultado e melhore o modelo de linguagem para evitar erros parecidos.

Um texto em inglês de prompt do ChatGPT com uma alucinação
O prompt original em inglês com a alucinação do ChatGPT. (Imagem: Noyb European Center for Digital Rights/Reprodução)

De acordo com o documento do processo, e melhorar de forma significativa os resultados atuais. O escritório de advocacia contratado também já processou a OpenAI antes por errar a data de nascimento de uma figura pública.

O que são as "alucinações" das IAs?

A alucinação de uma IA é o nome dado ao processo de criação de conteúdo falso por uma plataforma digital generativa, com dados inventados e resultados que não correspondem à realidade.

Isso ocorre especialmente devido a problemas no treinamento dos chatbots ou quando um serviço digital não encontra conteúdos relacionados a um comando — e, na necessidade de entregar um texto, usa a própria base de dados para "inventar" pessoas e acontecimentos. Por causa da falta de transparência nos modelos de linguagem, normalmente só é possível saber ser uma IA está alucinando se você mesmo encontrar o erro ou fizer o questionamento em um prompt seguinte.

Segundo o processo aberto na Noruega, simplesmente colocar uma nota de rodapé alegando que a IA pode cometer erros não é o suficiente, em especial se os equívocos são tão grandes quanto o do caso que aconteceu no país. Até o momento, a OpenAI não se manifestou sobre o caso.

Outros processos envolvendo o ChatGPT

A OpenAI já foi processada algumas vezes nos últimos três anos por assuntos relacionados ao ChatGPT, em especial devido às práticas da empresa ou o funcionamento do chatbot.

A companhia já responde judicialmente por infração de direitos autorais no treinamento do ChatGPT, já que teria usado conteúdos da internet e até obras completas para alimentar a base de dados do modelo de linguagem sem autorização. Além disso, a empresa está no meio de uma disputa judicial com Elon Musk, cofundador da OpenAI, sob acusações de monopólio e mudanças nas próprias diretrizes por causa de lucro.

A ação judicial de Arve está embasada na lei de proteção de dados da União Europeia (GDPR), que impede serviços digitais de fornecerem dados pessoais imprecisos e garante a usuários o direito de mudá-los no caso de erros. Por enquanto, o caso não foi avaliado nos tribunais do país.

Você já se deparou com uma “alucinação” de uma IA enquanto utilizava um serviço generativo? Conte a sua experiência para a gente nas redes sociais do TecMundo.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.