Conversas entre médicos e pacientes, relações sexuais sussurradas ou até mesmo transações entre traficantes — isso e muito mais têm sido escutado por funcionários terceirizados pela Apple, contratados para aprimorar o sistema de reconhecimento de fala de sua assistente de voz.
Segundo o funcionário que denunciou o problema ao jornal inglês The Guardian, estariam sendo ouvidas menos de 1% das ativações diárias da Siri, selecionadas aleatoriamente. Porém, são áudios que contêm informações pessoais que poderiam levar a quem as ouvisse a traçar o perfil pessoal do usuário.
Além disso, a frequência com que acontecem as ativações acidentais do programa seria alta (uma entrevista à BBC sobre a Síria foi interrompida pela assistente no ano passado). A empresa também não seria clara sobre sua assistente virtual começar uma gravação sem que ninguém a tenha chamado, simplesmente por ter capturado um áudio semelhante ao do seu comando. Segundo o funcionário, embora a Siri esteja incluída na maioria dos dispositivos, o Apple Watch e o alto-falante inteligente HomePod são as fontes mais frequentes de gravações ativadas acidentalmente.
Alta rotatividade de funcionários
A empresa diz, em um comunicado, que protege a privacidade das informações de múltiplas maneiras e que elas são analisadas em "instalações seguras" por pessoas que trabalham "sob requisitos rígidos de confidencialidade". Porém, a alta rotatividade entre os funcionários terceirizados e o pouco controle sobre os novos contratados só pioraria o problema. Também não haveria uma política específica sobre como lidar com gravações sensíveis: os funcionários são orientados a relatar solicitações acidentais como problemas técnicos, mas não o conteúdo em si.
A Apple não está sozinha em empregar a supervisão humana de seus assistentes automáticos de voz. Em abril, foi revelado que a Amazon usava funcionários para ouvir gravações da Alexa e, no início deste mês, descobriu-se que os funcionários do Google estavam fazendo o mesmo com o Google Assistant.
Fontes
Categorias