A Apple apresentou, nesta terça-feira (16), novos recursos de acessibilidade que serão lançados ainda neste ano para iPhone, iPad e Mac. As ferramentas são voltadas para acessibilidade cognitiva (para autistas, por exemplo), deficiência visual, auditiva, mobilidade e de fala.
Uma das novidades será o Assistive Access (Acesso Assistivo), que permitirá a usuários que não falam digitar para que o dispositivo emita falas durante chamadas, por exemplo. O Acesso Assistivo inclui uma experiência personalizada para o Telefone e FaceTime, que foram combinados em um único aplicativo de Chamadas, com Mensagens, Câmera, Fotos e Música.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
A partir do novo sistema, os dispositivos ainda terão botões de alto contraste e rótulos de texto. Quem preferir se comunicar visualmente, por exemplo, poderá utilizar o app de Mensagens com um teclado somente para emojis e uma opção de gravar mensagem de vídeo.
O Acesso Assistivo permite a escolha de layouts mais visuais ou baseados em linha para aqueles que preferem texto
O Live Speech foi outro anúncio feito pela Apple. Ele será um sistema disponível para iPhone, iPad e Mac onde os usuários poderão digitar o que desejam falar para que seja dito em voz alta durante chamadas telefônicas, FaceTime e até conversas pessoais.
Uma das possibilidades do Live Speech é salvar frases comumente utilizadas para que elas sejam ditas durante interações com familiares, amigos e colegas. O sistema foi projetado pensando em oferecer suporte a pessoas que perderam a fala.
Personal Voice e Point and Speak
Também será lançado ainda neste ano nos dispositivos da Apple o Personal Voice, que cria uma voz sintetizada. Voltado para pessoas em risco de perder a capacidade de falar – pacientes com Esclerose Lateral Amiotrófica (ELA), por exemplo –, a novidade permite a criação de uma voz pessoal com apoio de aprendizado de máquina.
O Personal Voice será lançado para iPhone, iPad e Mac e em um primeiro momento só estará disponível em inglês. Ele também terá integração com o Live Speech.
Para pessoas com deficiência visual, será lançado o Point and Speak (Apontar e Falar, em português). Disponível no iPhone e iPad, a ferramenta utiliza o LiDAR Scanner para ler o que está escrito em objetos físicos.
O Point and Speak é ideal para uso de objetos domésticos
A novidade pode ser usada, por exemplo, para que o device leia em voz alta para uma pessoa todas as opções em texto que estão escritas em um eletrodoméstico como micro-ondas. Além da detecção de textos, é possível realizar detecção de pessoas, detecção de portas e descrição de imagens.
O Point and Speak será lançado com suporte ao inglês, francês, italiano, alemão, espanhol, português, chinês, cantonês, coreano, japonês e ucraniano.
Fontes