O áudio que pode ser ouvido no vídeo logo acima pode até parecer algum demônio ou outra criatura do submundo falando algo, mas a realidade é bem mais mundana do que isso – e talvez tão séria quanto. A gravação é fruto do trabalho conjunto de pesquisadores da Georgetown University e UC Berkeley, que investigam formas como o reconhecimento de voz das assistentes de inteligência artificial de smartphones pode ser usado como brecha para ataques hackers.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Os estudiosos criaram comandos falados distorcidos o suficiente para que seres humanos não consigam compreendê-los, mas que os algoritmos de análise de fala dos celulares ainda sejam capazes de identificar e aceitar. Ao reproduzir os áudios perto de um aparelho compatível, é possível forçá-lo a executar uma série de ações, como demonstrado no vídeo a seguir.
O trabalho dos pesquisadores volta a levantar a questão da falta de mecanismos de segurança eficazes nos assistentes de voz. Não é preciso pensar muito para se lembrar de situações em que as IAs de smartphones causaram problemas para seus donos, como no caso em que a Alexa do Amazon Echo comprou casas de bonecas caras e indesejadas para vários usuários que estavam assistindo a uma reportagem de TV.
Agora cabe a empresas como Google, Apple e Amazon impedir que esse tipo de brecha de segurança seja utilizada para prejudicar seus usuários. Enquanto isso, fique sempre atento às reações do seu celular a sons estranhos que ouvir por aí.
Fontes
Categorias