Pessoas que defendem teorias da conspiração podem ser convencidas a abandonarem suas crenças após interagirem com um chatbot alimentado por inteligência artificial. É o que aponta um estudo feito por psicólogos do Instituto de Tecnologia de Massachusetts (MIT) e da Universidade Cornell, nos Estados Unidos.
Conforme o artigo publicado na Science na sexta-feira (13), cerca de um em cada quatro participantes do experimento mudou de ideia em relação às crenças iniciais, enquanto outros se sentiram, em média, 20% menos confiantes em suas teorias. A pesquisa contou com 2.190 americanos.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Teóricos da conspiração podem ser convencidos a mudar de ideia pela IA generativa.Fonte: Getty Images/Reprodução
Os voluntários compartilharam suas ideias conspiratórias com o bot, incluindo diferentes versões para o assassinato de John Kennedy e a eleição presidencial de 2020, além de tratarem temas como os Illuminati e a vacina contra covid-19. Essas pessoas precisavam classificar a confiança em tais teorias em uma escala de 0 a 100.
Durante a interação, a IA apresentava evidências contra as crenças dos conspiracionistas, aprovadas com 99,2% de precisão por um verificador de fatos profissional. A tecnologia foi treinada para se portar de maneira empática na conversa, evitando emitir ofensas e insultos aos participantes.
IA no combate à desinformação
Os pesquisadores destacaram que o resultado mostra como a tecnologia pode ter um papel importante no combate à desinformação, conseguindo convencer mesmo os teóricos da conspiração mais resistentes a mudar de ideia. Algumas dessas pessoas mantiveram o novo posicionamento mesmo depois de dois meses do fim do estudo.
Além disso, se tornaram menos propensas a seguir perfis nas redes sociais que defendem ideias semelhantes às quais tinham antes de participar da conversa com a IA. Parte dos antigos conspiracionistas ainda se mostrou mais disposta a argumentar contra quem defende tais teorias.
Batizado de “DebunkBot”, o mecanismo utilizado no estudo foi alimentado com o GPT-4, o mesmo modelo no qual é baseado o ChatGPT da OpenAI. Muitos dos participantes o agradeceram por auxiliá-los a ver um lado diferente dos temas abordados.
Fontes
Categorias