Durante seu evento de apresentação do novo iPhone 16, a Apple revelou novidades sobre o Apple Intelligence. O recurso é um conjunto de ferramentas que utiliza IA para auxiliar o usuário, e dessa vez traz o Visual Intelligence, uma tecnologia exclusiva dos novos smartphones para analisar fotos tiradas com a câmera.
A novidade se parece muito com o que o Google já faz com o Lens. Ao utilizar a câmera do iPhone 16, os usuários poderão utilizar o novo Capture Button, um botão lateral similar ao obturador de uma câmera profissional.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Ao acionar o botão e apontar para um restaurante, por exemplo, o Visual Intelligence automaticamente entregará respostas sobre aquele local, como avaliações, redes sociais, páginas, etc. O mesmo vale para o panfleto de uma apresentação, na qual ao apontar a câmera, o recurso adiciona o evento à sua agenda.
Todos os comandos são feitos pelo botão lateral de captura.Fonte: Apple
Compatibilidade apenas em inglês
O Intelligence também poderá ser usado para outras funções, como identificar a raça de um cachorro que você encontrou na rua, mas não conhece.
Além disso, a Maçã anunciou que o Apple Intelligence entrará em modo beta em outubro e receberá mais funções no mês seguinte. Inicialmente, o recurso estará disponível apenas em inglês, mas será localizado para Austrália, Canadá, Nova Zelândia, África do Sul e Reino Unido em dezembro.
Outros idiomas, como chinês, francês, japonês e espanhol serão adicionados apenas em 2025. O Apple Intelligence estará disponível em produtos da companhia mais antigos, mas o Visual Intelligence é exclusivo da linha iPhone 16.
Categorias