Você já deve ter ouvido falar da Google Clips, a câmera da Google que funciona com inteligência artificial e aprende quando e como deve registrar suas fotos. Ela consegue reconhecer o seu rosto e de seus familiares – incluindo seus animais de estimação – e passa a tirar fotografias automaticamente, sempre levando em conta os melhores ângulos, poses e iluminação.
Mas como foi que a Google programou a Clips para saber quando deve tirar suas fotos? Ensinando-a com a ajuda de profissionais da fotografia. A empresa contratou um cineasta de documentário, um fotojornalista e um fotógrafo de arte para que produzissem dados visuais por meio dos quais a inteligência artificial da Clips poderia aprender.
A Clips captura o melhor frame no formato de foto, tudo isso aprendido com fotógrafos reais
Ensinando de tudo
Com todos esses dados, a Google Clips consegue registrar imagens bem enquadradas, com ângulos bonitos e iluminação agradável
O sistema foi abastecido com uma grande quantidade de informações, desde as mais óbvias e simples, como o fato de uma foto desfocada ser considerada ruim, até coisas mais subjetivas, como o fato de uma foto demorar muito para ser tirada ser desagradável para quem está pousando.
Com todos esses dados, a Google Clips consegue registrar imagens bem enquadradas, com ângulos bonitos e iluminação agradável. Mas ainda assim – conforme a própria Google admitiu – um sistema como esse nunca vai ser perfeito, afinal, como ele vai fazer para saber que certas fotos “ruins” têm sua importância e podem ser até mais especiais que as boas?
Fontes