O Gemini está se comportando de forma estranha em algumas conversas, relatam usuários. O chatbot com inteligência artificial (IA) do Google responde frases repetidas, caracteres estranhos e até jargões desnecessários em contextos inadequados, segundo publicações compartilhadas no Reddit.
A causa disso ainda é um mistério, mas é um clássico sintoma de alucinação de IA. Em vez de apresentar respostas coesas, o assistente do Google começa a apresentar respostas desconexas ou repetitivas, não sanando a dúvida ou a solicitação do usuário.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Em um dos exemplos compartilhados no Reddit, um usuário mostrou o chatbot basicamente "enlouquecendo". A resposta à solicitação começa bem, mas logo se torna um texto totalmente ilegível, cheio de caracteres estranhos, palavras e termos repetidos e uma formatação totalmente ilegível.
Not Cauchy
byu/PeacefulOnReddit inGoogleGemini
Contudo, essa não foi a única situação em que o bot apareceu respondendo coisas estranhas. Outros relatos também compartilhados na rede mostram comportamento parecido em outras conversas, mostrando que o problema pode acontecer em uma variedade de contextos.
Segundo os relatos, os problemas acontecem tanto na versão web quanto no app do Gemini para celular. Portanto, é possível que o problema esteja contido na IA, ou na forma com que o Google encaminha a solicitação do usuário para os servidores.
"Gemini may display inaccurate info"
byu/tomadobi inGoogleGeminiAI
Por enquanto, a empresa não se manifestou sobre o problema. Contudo, uma vez que a questão parece ser algo recorrente, o Google deve lançar uma correção para as respostas malucas do Gemini em breve.
Interaja com responsabilidade
Os bugs com o Google Gemini reforçam, mais uma vez, a falta de confiabilidade nas respostas desse tipo de ferramenta. O chatbot é útil para sanar dúvidas rápidas e, por vezes, até sugerir ideias para um novo projeto ou viagem, mas ele não ele é capaz de avaliar a integridade das próprias respostas, assim cometendo erros que podem passar desapercebido.
Exemplo disso é o AI Overview, recurso experimental do Google, que poucos dias após o lançamento começou a apresentar respostas bizarras, tais como adicionar cola branca em pizzas, melhorar a ingestão de minerais comendo pedras e o hábito de fumar cigarros para gestantes.
Fontes
Categorias