Determinados a ampliar os usos possíveis da inteligência artificial, pesquisadores do Google Deep Mind estão colocando à prova os limites da tecnologia. Nos últimos meses, os cientistas concentrados em Londres estão tentando responder se técnicas do tipo têm uma tendência maior a trabalhar de forma cooperativa ou competitiva.
As respostas para essa questão podem ter implicações importantes na maneira como a tecnologia pode ser usada em áreas como na economia, no ajuste do fluxo de trânsito de cidades e na aplicação de políticas ambientais. Segundo Joel Leibo, líder do projeto, a tendência para a cooperação ou para a competição é baseada no ambiente em que a inteligência artificial opera.
Quanto maior a rede neural utilizada, maior a tendência de atacar outras e agir de maneira individual
Os documentos registrados pelo Deep Mind mostram que os pesquisadores usaram dois jogos para determinar o comportamento dos softwares. No primeiro, era preciso maximizar a quantidade de maçãs que podiam ser conquistadas em um ambiente digital em 2D — nas situações em que havia poucas frutas, a tendência competitiva era a dominante, o que se invertia quando havia maçãs em quantidade suficiente para todos.
Os pesquisadores também descobriram que, quanto maior a rede neural utilizada, maior a tendência de atacar outras e agir de maneira individual, independente da quantidade de maçãs. O que é preocupante em relação a essa inclinação é o fato de que ela se manifesta principalmente nos momentos em que a tecnologia é configurada para imitar o funcionamento do cérebro humano.
Tudo depende do contexto
No segundo game, chamado “Wolfpack” (“Matilha”, em uma tradução livre), os agentes de inteligência artificial faziam o papel de lobos que tinham que capturar “alvos”. O sucesso resultava em benefícios não somente ao caçador, mas também a todos os lobos presentes em uma área ao redor — quanto mais próximos eles estivessem, maiores os pontos obtidos.
Nessa situação a cooperação surgiu com mais força, se tornando mais evidente conforme aumentava a capacidade da inteligência envolvida. Os pesquisadores acreditam que essa diferença ocorre porque, no jogo da matilha, a atividade mais complexa apresentada era a da cooperação e não a da competição. Em outras palavras, a competição registrada no outro experimento não podia ser feita por IAs com capacidade mais limitada, por isso a cooperação ganhou força inicialmente.
No futuro, será interessante equipá-los com a capacidade de pensar sobre as crenças e objetivos de outras entidades
Segundo Leibo, os agente envolvidos nos jogos não foram configurados para ter memórias de curto prazo, o que significava a impossibilidade de determinar as intenções de outros agentes. “No futuro, será interessante equipá-los com a capacidade de pensar sobre as crenças e objetivos de outras entidades”, afirmou.