Não estamos nem perto de criar robôs que pensam como humanos e a inteligência artificial disponível nem de longe se parece com a mentalidade de um bebê ou de um animal. É o que diz o chefe do setor de inteligência artificial (ou artificial intelligence — AI) do Facebook, Yann LeCun, em entrevista ao The Verge. E mais: ele pede para que a imprensa pare de representar esse assunto de forma equivocada, normalmente com as máquinas assassinas da Skynet da franquia “Exterminador do Futuro”.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
“Não podia haver um artigo na (sobre AI) que a imagem era a do Exterminador. Foi sempre do Exterminador. Agora você vê menos disso, o que é bom. Ainda assim, ocasionalmente a imprensa levanta uma questão sobre um completo mal-entendido e isso acaba passando para frente”, conta.
Ok, ele pediu e vamos usar menos, mas quando se fala em inteligência artificial muita gente ainda associa ao filme "Exterminador do Futuro" — o que é um erro, segundo Yann LeCun
Aliás, um dos maiores mal-entendidos recentes sobre o tema foi, segundo ele, com relação ao caso em que a companhia teve que desligar um experimento que criou uma linguagem própria. Na época, já estava claro que isso aconteceu porque os testes perderam o propósito inicial — e não porque eles se tornaram perigosos. Mas não foi assim que muita gente viu o episódio.
“A primeira vez que você vê isso (o mal-entendido), há um sorriso e uma risada. Com esta história particular, houve um artigo e depois explodiu. Isso é instrutivo, porque nos dá uma idéia de como a mídia pode operar e temos várias maneiras de reagir a isso. Fiz uma publicação rápida no Facebook, dizendo que isso era ridículo, tentando levar para o lado humorístico até que pudéssemos ser levados mais a sério. Conversamos jornalistas que queriam a história real e eles escreveram sobre como isso era uma representação completamente falsa.”
AI não oferece perigo a curto ou médio prazo
Segundo Yann, todos os carros autônomos e máquinas que podem identificar imagens médicas ou até mesmo vencer o campeão humano do jogo de tabuleiro Go são AIs extremamente limitadas, treinadas para um único propósito e em situações que elas podem acumular uma quantidade enorme de dados.
Não é porque uma máquina pode vencer pessoas em um jogo que haverá robôs inteligentes correndo pelas ruas
“Não quero minimizar todos os trabalhos de engenharia e pesquisa feitos no AlphaGo pelos nossos amigos do DeepMind, mas é errado pensar nisso como um processo significativo para a inteligência (artificial) geral. Não é porque uma máquina pode vencer pessoas no Go que haverá robôs inteligentes nas ruas. São coisas completamente separadas. Outros podem dizer o contrário, mas essa é a minha opinião.”
O chefe da divisão AI do Facebook, Yann LeCun
O especialista afirma que a tecnologia disponível nesse setor atualmente não permite que os robôs façam ações básicas de um humano ou animal. “Em áreas específicas, as máquinas têm desempenho sobre-humano, mas em termos de inteligência (artificial) geral, nem estamos perto de um rato. Isso não quer dizer que não devemos pensar nas perguntas prematuras, mas não há perigo no curto ou mesmo no médio prazo. Há riscos reais no departamento de AI, mas não são cenários como o do Exterminador do Futuro.”
Máquina de aprendizado por erro e tentativa não significa evolução
Perguntado se a AlphaGo, experiência de AI da Google, pode ajudar a criar algoritmos que podem ajudar na área médica, Yann diz que é bem pouco provável de acontecer. Isso porque esses testes usam um método de erro e tentativa com a máquina de aprendizado — chamado de Reinforcement Learning, ou Aprendizagem de Reforço — que é eficiente com games em milhares de simulações simples processadas em quadros por segundo via múltiplos computadores. “Mas isso não quer dizer que funciona no mundo real, porque você não pode rodar um ‘mundo real mais rápido’ do que o tempo real”, explica.
Segundo o pesquisador, a única maneira de superar esse modelo seria ter máquinas que podem criar, a partir do aprendizado, suas próprias visões de mundo, assim eles poderiam representar uma “realidade” mais rápida do que o tempo real.
Team Go, que enfrentou a AI AlphaGo, do projeto Deepmind, da Google
Para exemplificar, ele afirma que nosso conhecimento permite a um motorista não bater em uma árvore, mesmo sem saber dirigir, porque ele sabe que isso é prejudicial. “Mas se você usar a técnica de aprendizagem de reforço ao treinar um sistema para dirigir um carro em um simulador, ele terá que bater na árvore 40 mil vezes antes de entender que essa não é uma boa ideia.”
Assistentes virtuais são o próximo passo
Yann acredita que auxiliares digitais são um caminho mais prático e atual para a evolução da AI. As ferramentas já estão mais “espertas”, mas ainda são muito limitadas e a criação desses bots ainda é muito cara e entediante, de acordo com o especialista. “O próximo passo seria os sistemas aprenderem um pouco mais internamente e essa é uma das coisas em que estamos trabalhando no Facebook. Seria útil ter uma máquina que lê um longo texto e depois responde a qualquer pergunta relacionada a ele”, exemplifica.
Uma das barreiras a ser superada atualmente é fazer com que as máquinas aprendam como o mundo funciona apenas com a observação, como assistir vídeos ou ler livros. “Esse é o desafio científico e tecnológico mais crítico para os próximos anos. Chamo isso de ‘aprendizado por previsão’, algumas pessoas chamam de ‘aprendizado sem supervisão’.”
Google Home com o Google Assistente em ação
A ideia é ter uma bate-papo menos frustrante e mais espontâneo com uma Siri, um Google Assistente, uma Alexa ou outros assistente virtuais. “Eles deverão ter mais conhecimentos básicos e fazerem mais coisas para as pessoas, coisas que não são inteiramente escritas pelos designers. E isso é algo no qual o Facebook está muito interessado.”
Fontes
Categorias