As Google Lens foram anunciadas no ano passado, com uma proposta que usa visão computacional, inteligência artificial e realidade aumentada para fazer uma espécie de “busca reversa” em dispositivos móveis: ao invés de digitar o que você quer encontrar, basta mirar a câmera do seu celular para que as informações pipoquem na sua tela em tempo real. Uma demonstração poderosa foi realizada nesta terça-feira (08), durante o evento para desenvolvedores Google I/O 2018.
A primeira grande novidade é chamada de “smart text selection”, em que você mira para determinadas palavras em qualquer lugar — pode ser em um cardápio, em uma placa ou em um livro — e o software ajuda a fazer o que quiser com isso. É possível armazenar uma receita sem ter que anotá-la, descobrir do que se trata uma opção gastronômica em outra língua ou simplesmente guardar a senha de WiFi ou algum número de telefone.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Outro recurso interessante fica por conta do “style match”, que permite associar o que estiver na mira do sensor com outros produtos. Por exemplo, se quiser combinar um sapato, um sofá ou qualquer outro objeto comercial com algo que a Gigante das Buscas possa encontrar, então as alternativas estarão disponíveis por ali.
Tudo isso agora trabalha com atualização constante graças ao aprendizado de máquina e à IA, com uma enorme base de dados em nuvem, capazes de identificar bilhões de palavras, frases e lugares em questão de meio segundo. Uma das melhores notícias com relação às Google Lens é que elas virão embutidas não somente nos Pixel como produtos de várias fabricantes, entre elas: LG, Motorola, Xiaomi, Sony, HMD/Nokia, Transsion, TCL, OnePlus, BQ e Asus.
Segundo a Google as Google Lens devem ser distribuídas via Android já nas próximas semanas.
Fontes
Categorias