Ao menos dois funcionários do Google que trabalham diretamente com inteligência artificial (IA) pediram, sem sucesso, que a companhia paralisasse o lançamento do seu chatbot Bard, baseado nessa tecnologia.
De acordo com uma reportagem do jornal The New York Times, os técnicos eram responsáveis por revisar produtos de IA da empresa e estariam preocupados com o serviço Bard, que estava gerando "comunicados imprecisos e perigosos". O pedido foi formalmente realizado no mês passado.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Só que esse apelo não surtiu efeito: o Google lançou oficialmente a versão de testes do Bard no início de março de 2023, um mês após o anúncio, para competir diretamente com toda a comoção gerada pelo rival ChatGPT — que é desenvolvido pela OpenIA, mas com financiamento e uso direto da Microsoft.
Mais preocupações
Na apresentação de lançamento, o Bard foi criticado justamente por dar informações falsas e até fazer contas de forma incorreta. Em outro caso notado dias depois, tanto o Bard quanto o ChatGPT integrado ao buscador Bing caíram em uma informação falsa e a reproduziram como se fosse verdade.
Em defesa da plataforma, o CEO do Google, Sundai Pichai, afirma que "coisas vão dar errado" até que a IA esteja devidamente treinada e melhore mecanismos como os de formulação de respostas. Recentemente, o Bard já recebeu uma melhoria significativa para resolver problemas de lógica e cálculo, além de ser integrado ao Gmail e Docs para ajudar na composição de textos.
Por outro lado, um grupo de especialistas e entusiastas de tecnologia recentemente assinou uma carta pedindo pausas em pesquisas em IA, que representam um "risco para a humanidade". Por preocupações com a privacidade de usuários, a Itália foi o primeiro país a suspender o uso do ChatGPT.
Fontes
Categorias