Em uma entrevista à Time publicada no domingo (5), a CTO da OpenAI, Mira Murati, lançou um alerta sobre os riscos ligados ao mau uso da inteligência artificial. Referindo-se ao seu mundialmente famoso ChatGPT, a executiva reconhece que a ferramenta “pode ser usada por maus atores”, o que leva à necessidade de uma regulamentação urgente.
"Como você governa o uso da IA de forma alinhada com os valores humanos?”, disse Murati, em uma declaração pouco comum a representantes de empresas globais, geralmente avessos a intervenções de órgãos reguladores. O argumento da executiva da OpenAI, no entanto, leva em conta o imenso poder do ChatGPT – e de seus semelhantes – e seu impacto na sociedade.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Reconhecendo que a empresa não esperava "esse nível de empolgação ao colocar nosso filho no mundo" – que chegou rapidamente a 100 milhões de usuários ativos mensais –, Murati lembra que, apesar da projeção global do produto, a empresa continua sendo "um pequeno grupo de pessoas" que necessita de informações adicionais "que vão além das tecnologias".
O que teme a OpenAI?
FonteAI/Divulgação.Fonte: OpenAI
Como já é de conhecimento de grande parte da população mundial, o ChatGPT é uma “IA generativa” que entrega prontamente respostas, imagens e músicas em questão de segundos, a partir de prompts de texto simples. Mas, da mesma forma que alguém pode pedir uma dica de como fazer um “gato” para a Netflix do vizinho, outros podem pesquisar falhas em empresas para iniciar um ataque cibernético.
Para bloquear esses riscos, os grandes utilizadores de IA deverão lançar mão de recursos em nuvem, hoje nas mãos de um pequeno grupo de empresas, como Microsoft, Google e Amazon. Além de questões antitruste, há o poder multiplicador das Big Techs.
Questionada pela TIme se ainda é prematuro falar em envolvimento de órgãos reguladores, Murati é categórica: “Não é muito cedo. É muito importante que todos comecem a se envolver, dado o impacto que essas tecnologias vão ter".
Fontes
Categorias