A Google é uma das empresas que mais tem pesquisado a respeito de inteligência artificial (IA), robótica e aprendizado de máquinas. Por isso, ela também deve ser uma das mais empenhadas a busca também eventuais regras, e aplicações que limitem ou estabeleçam protocolos de segurança em relação a esses equipamentos.
E foi mais ou menos isso que ela mostrou em um recente artigo publicado em parceria com cientistas das universidades de Stanford e Berkeley. No texto, ela admite que "riscos de segurança de inteligência artificial receberam muita atenção pública", mas afirma que, por enquanto, os cenários são todos especulativos.
Assim, ela endereçou cinco "problemas" que são muito importantes de serem resolvidos ou aplicados em IAs futuras. Elas não são exatamente leis, mas questões levantadas pela equipe de pesquisa que devem ser levadas em conta quando a tecnologia estiver ainda mais desenvolvida e popularizada.
Por um futuro melhor
Eis as cinco questões a serem trabalhadas pela Google em IAs no futuro:
1. Evitar efeitos colaterais negativos
A IA não pode perturbar ou prejudicar o ambiente enquanto cumpre o objetivo, como derrubar um vaso enquanto limpa um cômodo.
2. Evitar "hack" por recompensa
A IA não deve fazer gambiarras ou malandragens na execução das tarefas, como colocar a sujeira debaixo do tapete.
3. Fiscalização escalável
A IA deve receber respostas, críticas e sugestões dos operadores, mas deve gravar respostas para não perguntar a todo momento.
4. Exploração segura
A IA precisa ter cuidado e não deve se danificar durante o aprendizado ou cumprimento de tarefa — como jogar água em circuitos elétricos.
5. Robustez em adaptação
A IA precisa reconhecer espaços e ralizar a tarefa de forma igualmente efetiva, mesmo se o ambiente for diferente daquele usado no treinamento.
Vai funcionar?
Note como a Google utiliza um robô de limpeza como exemplo — é claro que ela não iria preocupar a sociedade a respeito de eventuais perigos bem mais graves. Vale lembrar que muita gente, incluindo o empresário Elon Musk, têm medo de que as IAs acabem não sendo somente benéficas e possam representar um período real para humanidade.
Muitos temem que as IAs não sejam somente benéficas à humanidade
Há ainda quem já comparou as tais regras com as "Três Leis da Robótica" do autor de ficção científica Isaac Asimov. Elas são bem mais relacionadas com eventuais levantes das máquinas e falam que um robô não pode ferir ou prejudicar um ser humano, deve obedecer as ordens dadas a ele por uma pessoa e precisa proteger a própria existência (sem conflituar com as outras duas leis). Será que chegaremos nesse nível algum dia?