Antes de visitar um local, por exemplo, um restaurante, você é um dos usuários que procuram avaliações em sites como TripAdvisor ou Yelp para saber como será a sua experiência? Então, é melhor começar a ter mais cuidado ao ler esse tipo de opinião.
Pesquisadores da Universidade de Chicago começaram a treinar uma rede neural de inteligência artificial que pode gerar falsas análises focadas nesses sites. Mas engana-se quem acha que as respostas são malfeitas ou “robóticas” demais, já que elas são projetadas para ser extremamente convincentes!
Achou impossível? Bem, os pesquisadores liberaram uma amostra com frases geradas pelo sistema: "Minha família e eu somos grandes fãs deste lugar. A equipe é superagradável e a comida é excelente. O frango é muito bom e o molho de alho é perfeito. O sorvete coberto com frutas também é delicioso. Altamente recomendado!".
Avaliações falsas geradas por inteligência artificial podem se confundir com as verdadeiras e prejudicar o propósito dos sites de avaliação
O exemplo acima, que foi traduzido do inglês, passaria facilmente a impressão de ser uma opinião genuína, certo? Para testar a fidelidade da inteligência artificial, os criadores testaram o bot com as análises feitas por pessoas reais.
Testando a veracidade
Para poder confirmar se as opiniões geradas pelas redes neurais eram convincentes, os pesquisadores dividiram cinco avaliações falsas e distribuíram para algumas equipes. Os convidados deveriam dizer se achavam que os comentários eram reais ou não e se eram úteis.
Como resultado, os entrevistados disseram que as avaliações falsas eram “irreconhecíveis” e difíceis de distinguir das reais, ou seja, se passavam como verdadeiras.
Obviamente, as críticas falsas geradas pela inteligência artificial não são perfeitas. Mas, se as redes neurais do sistema forem exploradas a fundo, elas podem aprimorar a forma de se construir os textos fictícios, prejudicando a veracidade das opiniões publicadas em sites desse tipo.
Fontes
Categorias