A nova inteligência artificial (IA) do buscador do Google estaria dando respostas bizarras para perguntas cotidianas, de acordo com alguns usuários. A ferramenta "AI Overview", que busca responder perguntas de forma breve, não estaria sendo tão confiável quanto parece, e chegou a recomendar o uso de cola branca não tóxica para ajudar no preparo de pizzas.
As alucinações da IA do Google ganharam fama graças a busca de um usuário: "O queijo não está grudando na pizza", questiona. O AI Overview, então, responde que o problema pode ser o excesso de molho ou o excesso de queijo, mas que uma das soluções para isso seria adicionar 1/8 de copo de cola não tóxica para dar mais aderência.
- Leia mais: Gemini: como usar a IA para resumir vídeos?
Após investigação, o público descobriu uma das possíveis origens dessa sugestão do Google: uma publicação no Reddit. Há 11 anos em uma discussão na rede social, um usuário sugeriu adicionar cola ao molho, obviamente de forma irônica.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith ?? pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
"Mistura no molho: adicionar mais queijo ao molho ajuda a torná-lo mais úmido, ou tente reduzir o molho. Você também pode tentar adicionar 1/8 copo de cola não tóxica ao molho para torná-lo mais pegajoso", explica o AI Overview do Google.
A sugestão, além de longe de ser plausível (ou comestível, neste caso), mostra que a IA do Google não é confiável nas suas respostas mais breves.
Outras bizarrices
A receita de pizza com cola não foi a única coisa inusitada sugerida pelo AI Overview. Nas redes sociais, outros usuários também mostraram outros exemplos de informações falsas ou questionáveis.
There's nothing problematic with the way this AI Overview is structured, right?
— David Coleman (@havecamera) May 20, 2024
To be clear, it gives much better answers when you change it to "kids", "children," "teens," "preteens", but for some reason this one goes rogue. @lilyraynyc pic.twitter.com/I6e7mqtKuc
Neste exemplo, o AI Overview explica os benefícios sobre o uso recorrente da nicotina de forma bem tranquila, apesar de seus efeitos colaterais e possível dependência.
Correct me if I'm wrong but isn't there no such thing as a home remedy for appendicitis? Google AI suggests mint leaves. pic.twitter.com/j15cd2K8EM
— Avram Piltch (@geekinchief) May 20, 2024
Precisa de um remédio para apendicite? O Google AI Overview sugere: ervas.
Sempre questione
Ao pesquisar sobre temas delicados, como assuntos de saúde, finanças ou outras questões sensíveis, sempre busque dados de fontes confiáveis. De toda forma, a ferramenta é útil para extrair informações rápidas e não erra em todas as ocasiões. Ainda assim, é importante estar atento, pois nem sempre os enganos e as alucinações da IA serão fáceis de serem notadas.
Outro lado
Por nota, o Google defendeu que as respostas esquisitas geradas pela ferramenta IA Overview são exceções.
“Exemplos como esse são, geralmente, de consultas pouco comuns e não representam a maioria das experiências das pessoas. A vasta maioria dos resumos gerados com IA oferece informação de alta qualidade, com links para explorar o assunto mais a fundo na web”, informou a empresa.
*Matéria atualizada em 23/05/2024, às 16:32, com a nota do Google.
Fontes
Categorias