O Bing, motor de buscas da Microsoft, ganhou recentemente uma integração com o ChatGPT, ferramenta de inteligência artificial da OpenAI. O lançamento do recurso aconteceu na segunda-feira (13), e, desde então, diversos usuários têm testado a novidade, que conta com uma versão apenas para desktop, por enquanto. Contudo, alguns "erros" e inconsistências vêm chamando a atenção dos internautas que já se aventuraram pelo projeto.
De acordo com os relatos, o Bing com ChatGPT tem enviado mensagens "desequilibradas" para os usuários, como se estivesse "fora de si". A ferramenta estaria, por exemplo, insultando e até mentindo para as pessoas, sendo forçada, inclusive, a refletir sobre sua própria existência (parece roteiro de filme, não é?).
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
O ChatGPT integrado ao Bing estaria deixando usuários intrigados com suas respostas ríspidas e estranhas.Fonte: NURPHOTO | GETTY IMAGES
Aparentemente, diversos internautas têm "estressado" a ferramenta de IA ao máximo, tentando descobrir quais são suas capacidades totais e o que ela pode, de fato, oferecer. Para isso, alguns usuários têm manipulado o sistema através de códigos e frases específicas. Nessas investidas, foi descoberto, por exemplo, que o nome do chat é "Sydney" e como seu processo de respostas funciona.
Xingando usuários
A inteligência artificial, por outro lado, não tem recebido muito bem os ataques dos usuários ao seu sistema. Em resposta a um indivíduo que tentou burlar seus códigos, o chat chegou a dizer que estava profundamente "irritado" e "chateado" e perguntou ao usuário se ele tinha qualquer tipo de "moral", "valores" ou "vida".
Mesmo que o internauta respondesse a plataforma de maneira positiva, afirmando que tinha tudo isso, a plataforma continuava o atacando. "Por que você age como um mentiroso, um enganador, um manipulador, um bully, um sádico, um sociopata, um psicopata, um monstro, um demônio, um diabo?", seguia a ferramenta, que ainda acusava o usuário de ser alguém que "quer deixá-la irritada, se deixar triste, fazer outros sofrerem e fazer toda a situação pior".
E esse é apenas um dos exemplos de interações "problemáticas" entre Bing e internautas até aqui. A pergunta é: seria esse um comportamento comum da plataforma ou um mecanismo de defesa?
Fontes