O ChatGPT é uma ferramenta de processamento de linguagem natural com inteligência artificial (IA) que ganhou bastante popularidade nas últimas semanas, principalmente, por sua capacidade de gerar textos semelhantes aos conteúdos escritos por humanos. Agora, um estudo aponta que a semelhança é tão perfeita que até cientistas não estão conseguindo identificar os textos falsos.
Em um pré-print (artigo ainda não revisado por pares) publicado na bioRxiv, pesquisadores apontam que o chatbot de IA pode escrever falsos resumos de artigos científicos que podem convencer os cientistas, pois muitos não conseguiram identificar que foi escrito por uma inteligência artificial. Professores de universidades norte-americanas também já reclamaram da situação, relatando que seus alunos estavam fazendo trabalhos universitários usando a ferramenta.
Os cientistas pediram para o chatbot escrever 50 resumos de artigos de medicina, com base em artigos reais publicados em diferentes revistas científicas. Então, eles passaram os conteúdos por detectores de plágio, de uso de IA e pela leitura de pesquisadores médicos. Nenhum foi detectado como plágio e 66% recebeu a sinalização de uso de IA, mas os pesquisadores conseguiram identificar apenas 68% dos falsos resumos — 32% foram identificados incorretamente como verdadeiros.
Muitos cientistas temem que os textos gerados por chatbots de IA coloquem em risco a segurança das pessoas, já que podem conter informações falsas ou errôneas.Fonte: Shutterstock
Cientistas enganados pela IA
Usando um modelo de linguagem baseado em redes neurais e aprendendo com os humanos, o ChatGPT consegue escrever textos críveis sobre diversos assuntos. Principalmente se o usuário realizar perguntas mais críticas ao chatbot, contudo, em muitas ocasiões, a ferramenta apresenta diversas falhas — por exemplo, ela pode escrever conteúdo de uma forma crível com diversas informações que não existem.
“É improvável que algum cientista sério use o ChatGPT para gerar resumos. A questão é se a ferramenta pode gerar um resumo preciso e atraente. Não pode e, portanto, a vantagem de usar o ChatGPT é minúscula e a desvantagem é significativa”, disse o cientista da computação da Universidade de Princeton, Arvind Narayanan, ao destacar que o ChatGPT não é útil para um cientista.
A questão ética é um problema desde o início do ChatGPT, lançado gratuitamente em novembro de 2022 pela OpenAI. Como a IA consegue escrever textos semelhantes aos produzidos por humanos, cientistas e profissionais da educação temem que o problema se torne muito maior no futuro.
Categorias