O Project Maven é uma parceria da Google com o Departamento de Defesa dos Estados Unidos que prevê o uso de inteligência artificial (IA) em drones do exército para acelerar o processo de reconhecimento de pessoas e objetos. Com o alto potencial de se tornar uma arma de guerra, a iniciativa vem sendo criticada por muita gente em Mountain View: de acordo com o Slash Gear, desde março milhares de funcionário vêm assinando petições em protesto e pelo menos 12 empregados já pediram demissão por conta disso.
Petição contra a parceria com o Pentágono já foi assinado por quase 4 mil pessoas da companhia de Mountain View
Ainda que a própria companhia faça questão de destacar os propósitos “não ofensivos” do Project Maven, ninguém parece acreditar nisso. "Enquanto elimina um conjunto restrito de aplicações diretas, a tecnologia vem sendo construída para os militares e, uma vez entregue, pode ser usada facilmente para ajudar nessas tarefas. Esse plano prejudicará de maneira irreparável a marca da Google e sua capacidade de competir por talentos”, diz o documento, assinado por quase 4 mil pessoas. Elas criticam a falta de transparência dos gestores na customização das funcionalidades, que estariam sendo personalizadas em prol de ações obscuras.
Além do que já disse, a Google afirma que tudo vem sendo feito com softwares de código aberto. Com isso, mesmo com o fim do contrato com o Pentágono, o governo ainda poderia continuar dando sequência ao projeto — e sem ter que dar um centavo para a Gigante das Buscas. Enquanto isso, o Comitê Internacional para o Controle de Armas Robóticas (CICAR) engrossa o coro interno dos trabalhadores.
“O Project Maven é um programa militar dos Estados Unidos destinado a usar o aprendizado de máquina para analisar enormes quantidades de material de vigilância por drone e rotular objetos de interesse para os analistas humanos.A Google está fornecendo não apenas a tecnologia de aprendizado profundo em código aberto, como também expertise de engenharia e assistência ao Departamento de Defesa", argumenta o CICAR, em carta aberta sobre o assunto.
E a instituição vai além, projetando um cenário “Skynet”, em que as próprias máquinas podem realizar decisões sobre tarefas bélicas. “Se a ação ética das empresas de tecnologia exige a consideração de quem pode se beneficiar de uma tecnologia e quem pode ser prejudicado, então podemos afirmar com certeza que nenhum tópico merece uma reflexão mais sóbria — nenhuma tecnologia tem maior risco — do que algoritmos destinados a atingir e matar à distância e sem responsabilidade pública.”
Fontes
Categorias