A Mojo Vision, uma nova startup do Vale do Silício, está desenvolvendo lentes de contato com realidade aumentada. As peças inteligentes funcionariam mais ou menos como o Google Glass, mostrando informações úteis, só que diretamente nos olhos do usuário.
Imagens com 14.000 ppi
As lentes seriam do tipo rígidas, com uma região bulbosa na qual ficaria uma tela com resolução de 14.000 ppi. Para efeitos de comparação, as telas dos smartphones com resolução mais alta no mercado têm pouco mais de 500 ppi. As lentes ainda teriam sensor de imagem, sinal de rádio e sensor de movimento para ajudar a estabilizar as imagens.
O primeiro protótipo foi demonstrado durante a CES 2020, na semana passada, mas está bem longe do que a empresa espera que seja a versão final do projeto. O piloto tinha apenas uma tela monocromática verde ligada a uma bateria grande e a um processador externo para funcionar. Também não era permitido colocá-la diretamente no olho, apenas segurá-la bem de perto, para que as imagens pudessem ver vistas.
Primeira abordagem: aplicação na medicina
Inicialmente, as lentes da Mojo Vision poderiam servir para indivíduos com baixa visão, pois o recurso de melhoria de imagem e o zoom poderiam ajudá-los a enxergar melhor. A demonstração na CES mostrou o recurso para ver melhor no escuro, identificando objetos em uma sala, por exemplo.
Próximo passo: substituir smartphones
Futuramente, a Mojo Vision espera que o produto possa ser vendido a todo tipo de usuário, mesmo aqueles que enxergam perfeitamente. As lentes poderiam funcionar pareadas com celulares, mostrando todo tipo de conteúdo diretamente nos olhos dos donos, operadas por meio do rastreamento ocular. A empresa disse que os dispositivos teriam que ser desinfetados todas as noites e colocados para carregar.
Atualmente, mais de US$ 100 milhões já foram arrecadados para o desenvolvimento das lentes de realidade aumentada, mas a primeira versão não deve ficar pronta em menos de 2 anos. E a empresa também não deu uma previsão de custo final para o produto.
Categorias