Nos filmes policiais e em alguns dos seriados mais famosos da televisão, não é raro assistirmos a alguma cena em que a análise das imagens ajuda na solução de casos praticamente impossíveis. Geralmente, os especialistas conseguem aplicar um zoom incrível em uma determinada fotografia e, fazendo isso, eles encontram detalhes que mudam o rumo de qualquer investigação.
Contudo, todo mundo sabe que, na vida real, não bem assim que as coisas funcionam – tanto é que o assunto já virou piada na internet. Se você tira uma foto com a sua melhor câmera e quer mostrar algo em detalhes para o seu amigo, tudo já fica cheio de pixels e difícil de ser visto. Se levarmos em conta a qualidade das câmeras de segurança, então, aí o buraco é ainda mais embaixo.
Porém, alguns pesquisadores de Israel e da Alemanha estão desenvolvendo um modelo diferente de trabalho. Os cientistas buscam a aplicação de maneiras alternativas na hora de se lidar com as imagens, lançando mão de leis da física para obter detalhes impressionantes e fotos com mais perfeição que a imagem de um microscópio.
O que as câmeras capturam
Primeiro, para entender o estudo, é preciso saber como uma imagem “nasce”. Quando você abre uma foto no computador, vê um arquivo que é a junção de vários pixels. E como ele é formado? Bem, antes mesmo de você abrir uma foto no seu computador, há outro estágio: a transformação destes pixels quando você ainda está tirando a foto.
Fotos captam a luz (Fonte da imagem: Reprodução/iStock)
Todas as câmeras contam duas peças fundamentais: a lente e o obturador. Há vários tipos diferentes, com lentes distintas, tamanhos diversos e, também, tempo de exposição à luz e intervalo de abertura do obturador diferentes.
São, basicamente, estas duas peças que determinam a direção e a quantidade de luz refletida pelo ambiente (e os objetos nele inseridos) que será percebida pelo aparelho no momento em que você tira uma foto.
Resumindo: eles determinam a quantidade de informações que conseguimos enxergar em uma fotografia, isso graças às ondas de luz espaciais que são capturadas pela câmera e, depois, dão forma às imagens.
Em seguida, por meio de um sensor (como o CCD ou o CMOS), a câmera digital captura a luz refletida pelos objetos fotografados e a converte em elétrons. Por fim, esses elétrons são transformados nos pixels que formam uma imagem.
Zoom: grandes pixels e imagem prejudicada
O problema é que, com as fotografias sendo construídas por pixels, por maior que seja a resolução dessas imagens, sempre haverá uma limitação de zoom. Se você pegar uma imagem de 10, 15 ou, mesmo, 50 megapixels, por exemplo, e começar a aplicar zoom, chegará um momento em que você só terá enormes quadrados na tela do seu monitor.
Detalhes que ficam de fora
Nós falamos anteriormente que a câmera constrói a imagem detectando ondas de luz espaciais do ambiente e dos objetos fotografados. Acontece que, por mais que você conte com a melhor e mais cara máquina fotográfica do mundo, ainda assim, algumas dessas ondas não serão capturadas pelo aparelho.
Isso acontece porque as ondas de luz partem de vários pontos diferentes. Se você iluminar algo com uma lâmpada, vamos dizer uma superfície de metal redonda (para exemplificarmos de maneira mais fácil), você poderá perceber que a luz será refletida de formas distintas, indo para todos os lados. Isso acaba gerando também várias ondas de luz diferentes. Na fotografia, isso é chamado de difração.
Difração (Fonte da imagem: Reprodução/Wikimedia Commons)
Para que você consiga “visualizar” essa reação, vamos utilizar uma explicação mais figurativa. Quando alguém arremessa uma pedra em um lago, é possível perceber as ondas geradas pelo impacto dela na água, correto?
Porém, se você jogar vários objetos no mesmo lago, todos ao mesmo tempo e caindo uns perto dos outros, haverá uma mistura das ondas – não permitindo que você consiga identificar qual foi a reação gerada por esta ou aquela determinada pedra. Assim, você acaba enxergando uma grande quantidade de ondas, umas se chocando e algumas se sobressaindo às outras.
Isso acontece de forma semelhante com os pontos de luz identificados por uma câmera fotográfica, que não percebe essas ondas refletidas, aqui chamadas também de ondas evanescentes.
E são essas ondas que os pesquisadores estão tentando identificar, tudo para conseguir gerar imagens praticamente perfeitas e que contenham todos os detalhes do ambiente.
Comparando ondas de luz
O trabalho dos cientistas poderia ser mais simples. Nas primeiras tentativas, o que eles fizeram foi adivinhar a forma das ondas de luz evanescentes e, a partir disso, recalcular a imagem. Em seguida, realizaram comparações da foto original com essas contas.
Teoricamente, caso as duas “versões” combinassem, seria possível reconstruir a imagem, dessa vez, obtendo todos os detalhes que não haviam sido anteriormente revelados. Contudo, para infortúnio dos pesquisadores, isso acabou revelando nada mais, nada menos, do que a mesma imagem original obtida antes.
Porém, isso não desanimou os pesquisadores. Eles partiram, então, para uma análise mais profunda, buscando entender a densidade das informações trazidas pelas luzes em suas ondas espaciais. Você se lembra do fato de que a luz é refletida para todos os lados e de formas diferentes, certo? Os cientistas também.
Comparação das ondas (Fonte da imagem: Reprodução/Nature)
Por isso, eles encontraram uma forma de representar tudo isso em uma espécie de gráfico, formado por cubos com tamanhos e amplitudes diferentes. Nesse conjunto cheio de quadrados, a maioria dos valores apresentados é reduzida à praticamente zero. A partir disso, um algoritmo de reconstrução desenvolvido pelos pesquisadores é capaz de identificar corretamente os detalhes ali escondidos.
Em seguida, esse algoritmo é capaz de expandir o conjunto de ondas e frequências espaciais que representa a imagem. Assim, para aperfeiçoar a foto, ele também modifica as amplitudes das ondas, expandindo-as até que elas recuperem a forma da fotografia original.
Isso é feito para trabalhar como um filtro, ou seja, a imagem precisa trazer mais informações, mas não pode apresentar também novos ruídos que tornem a sua visualização incorreta. Por isso, ele precisa identificar dados e também realizar uma limpeza na nova fotografia.
Estudos conseguiram resultados positivos (Fonte da imagem: Reprodução/Nature)
Quando ele consegue fazer isso, as características das imagens são reveladas com maior número de informações, recriando os detalhes das ondas de luz que antes não haviam sido mostrados. O processo vem sendo chamado de Difração Coerente.
Em seus testes, os cientistas conseguiram obter resultados positivos. Eles tiraram várias fotos de uma superfície cromada e com um revestimento de vidro, que tinha, também, vários pequenos furos agrupados. Os buracos foram espaçados de maneira que um microscópio comum poderia visualizar esses grupos, mas não seria capaz de mostrar cada furo de forma individual.
O estudo com o algoritmo conseguiu praticamente recriar as fotografias, fazendo-as mostrar mais detalhes e apresentar uma resolução muito mais elevada que a das imagens obtidas com o próprio microscópioilustrando cada furo separadamente.
Longe de ser aplicado
Apesar de os resultados dos estudos serem empolgantes, o conceito desenvolvido pelos cientistas ainda está longe de ter uma aplicabilidade real. Isso porque os testes realizados por eles contavam com vários fatores que facilitaram o estudo, como o fato de eles terem calculado exatamente o layout dos buracos, além do grande contraste das fotos tiradas (os furos eram pretos e a superfície de cromo e vidro).
Tecnologias do CSI ainda vão ficar um tempo somente na TV (Fonte da imagem: Reprodução/iMDb)
Em fotografias normais e em um cenário mais realista, dificilmente alguém encontrará tamanha diferença de cores dentro da mesma imagem, algo que torna esse tipo de trabalho muito mais difícil de ser executado.
A questão é: será mais fácil conseguir colocar este tipo de tecnologia em prática ou simplesmente trabalhar no desenvolvimento de câmeras cada vez mais potentes, que cheguem a ter milhões de megapixels?
Fonte: Nature, Nuit Blanche, Cornell University, EESC, Inovação Tecnológica e Jornal da Ciência.
Categorias