Quando um algoritmo selecionar algo que pode causar reações racistas ou um veículo autônomo atropelar uma pessoa, quem vai responder por essas ações? E de que forma? Essas são questões muito relevantes atualmente, já que estamos vivendo uma era de pleno desenvolvimento de tecnologias que envolvem inteligência artificial (ou artificial intelligence — AI).
A tecnologia não é neutra em termos de valor e os tecnólogos devem assumir a responsabilidade pelo impacto ético e social de seu trabalho
A Google, dona de uma companhia do setor, a britânica DeepMind, anunciou neste quarta-feira (04) a criação do grupo DeepMind Ethics & Society (DMES), que vai publicar regularmente análises e discussões em relatórios.
“Criamos a DMES porque acreditamos que a AI pode trazer muitos benefícios para o mundo, mas apenas se mantivermos os mais altos padrões éticos. A tecnologia não é neutra em termos de valor e os tecnólogos devem assumir a responsabilidade pelo impacto ético e social de seu trabalho. Em um campo tão complexo como a AI, é mais fácil dizer do que fazer e é por isso que nos comprometemos com pesquisas profundas sobre questões éticas e sociais, a inclusão de muitas vozes e a reflexão crítica contínua”, diz a apresentação no site oficial.
DeepMind Ethics & Society quer aumentar sua equipe para 25 membros nos próximos meses
Em um primeiro momentos, os tópicos mais debatidos devem ser os problemas relacionados ao gerenciamento da pessoas que estão intimamente ligadas com a AI, o impacto da automação na economia mundial e a necessidade de assegurar que sistemas inteligentes possam desenvolver e compartilhar nossos mesmos valores morais e éticos.
Começa em 2018
Em 2015, a DeepMind uso ilegalmente os dados médicos confidenciais de 1,6 milhões de pacientes em três hospitais londrinos, sem o consentimento dessas pessoas. A companhia afirmou que “subestimou a complexidade do Serviço Nacional de Saúde (National Health Service ou NHS) britânico e suas regras sobre os dados de seus pacientes”.
Google vem sendo pressionada pela opinião pública sobre o assunto no Reino Unido
O episódio vem causando reações contrárias às práticas da DeepMind e se intensificaram no ano passado. Uma resposta teria que vir rapidamente e por isso a Google logo tratou de criar o DMES, que já promete suas primeiras publicações no começo de 2018.
O pesquisador e filósofo Nick Bostrom, da Universidade de Oxford, é um dos integrantes do grupo que avalia a ética na inteligência artificial
A equipe será co-liderada Verity Harding, que já atuou no governo do Reino Unido e na própria empresa de Mountain View, e vem de uma carreira de consultoria sobre tecnologias. O time conta inicialmente por oito pessoas — incluindo o filósofo Nick Bostrom, teórico sobre os riscos da AI — e pretende adicionar mais 17 profissionais nos próximos meses, além de firmar parcerias com comunidades que estudam esse setor, como o The AI Now Institute e o Leverhulme Centre for the Future of Intelligence.
Categorias