Se você está um pouco surpreso e até assustado com os avanços recentes na área de Inteligência Artificial (IA), saiba que você não é único. Sam Altman, CEO da OpenAI, empresa responsável pelo ChatGPT, revelou que também sente "um pouco de medo" de ferramentas como a que companhia que ele mesmo administra criou.
Em entrevista à ABC News, Altman não escondeu seus temores em relação aos possíveis efeitos danosos de Inteligências Artificiais, que poderiam interferir em questões ligadas ao mercado de trabalho, às eleições e à propulsão de desinformações, por exemplo.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
"Acho que as pessoas realmente se divertem [com o ChatGPT]", disse de início empresário. Porém, ele alertou durante sua fala: "nós nos preocupamos com governos autoritários desenvolvendo isso [ferramentas de IA]".
Em entrevista, Sam Altman alertou sobre os possíveis efeitos de Inteligências Artificiais na realidade.Fonte: GettyImages
Apesar de também afirmar que recursos de IA eventualmente serão um reflexo do "poder coletivo, da criatividade e do força da humanidade", Altman relembrou, com receio, da fala do presidente da Rússia, Vladmir Putin, que afirmou que, quem estiver à frente no desenvolvimento de Inteligências Artificiais "será o comandante do mundo".
Mais investimentos e receios
E, vale lembrar, nesse sentido, que, após o lançamento do ChatGPT diversas outras empresas e nações tem tentando criar um produto similar.
A chinesa Baidu, recentemente, lançou um chatbot de IA chamado Ernie Bot para competir com o ChatGPT. O Google também tem "corrido atrás do prejuízo" e investido pesado no desenvolvimento do Bard, outra plataforma de Inteligência Artificial aos moldes daquela criada pela OpenAI. A companhia de Altman, aliás, é parceria da Microsoft.
O executivo também explicou durante a entrevista que as eleições de 2024 é um dos focos da OpenAI, que não quer que sua ferramenta interfira de qualquer maneira no processo. "Estou particularmente preocupado que esses modelos possam ser usado em larga escala para disseminar desinformações".
Fontes
Categorias