Faltam ainda pelo menos dois pares de anos para que carros inteligentes passem de fato a abarrotar as ruas. Segundo Chris Urmson, diretor da equipe que atua no desenvolvimento do veículo autônomo da Google, a eficiência dos sistemas depende da forma como a interpretação dos dados coletados pelos sensores é feita (entenda).
Mas, como, afinal, os automotores que dispensam a atuação de motoristas enxergam o mundo? Conforme informa um artigo publicado pelo The New York Time Magazine, a tecnologia de leitura de ambientes conhecida como “lidar” já é capaz de identificar grande parte dos elementos que compõem um cenário (como prédios ou árvores).
Como demonstração ao quão apurados os scanners lasers em 3D são, um vídeo desenvolvido pela companhia ScanLAB Projects foi publicado (assista-o acima) O modelo capturado exibe detalhes da arquitetura das ruas de Londres, no Reino Unido. Conforme observado por Illah Nourbakhsh, professor de robótica da Universidade de Carnegie Mellon (EUA), os desafios que minam o aperfeiçoamento dos sistemas de navegação inteligente não estão relacionados apenas à precisão da captura de dados.
Grosso modo, quer dizer que o “contexto cultural” das imagens registradas deve ainda ser interiorizado pela máquina. O pesquisador sugere, a título de exemplo, que uma pessoa vestindo uma camiseta com a estampa de um sinal de pare poderia ser confundida com uma placa verdadeira se as condições de iluminação do ambiente favorecessem a possibilidade de uma leitura equivocada por parte do carro.
Os comentários feitos por Nourbakhsh entram em consonância com as pontuações colocadas pelo executivo da Google já há um ano (relembre). Fato é que uma longa rodovia ainda deve ser percorrida pela indústria automotiva, pois não é preciso apenas ensinar um veículo a entender o significado dos elementos que o circundam; melhorias relacionadas até mesmo ao comportamento dos carros quando submetidos a dias chuvosos devem também ser feitas (saiba mais aqui).