Um representante da Apple explicou, em entrevista publicada no The Wall Street Journal nesta sexta-feira (13), como funciona o controverso sistema de análise de fotos anunciado pela big tech. Craig Federighi, líder de software da empresa da Maçã, defendeu que preocupações com o recurso voltado à proteção infantil se baseiam na má-compreensão da tecnologia.
Durante a conversa, Federighi reconheceu que a companhia falhou na divulgação da ferramenta. De todo modo, salientou, não haverá escaneamento de todas imagens em aparelhos, apenas daquelas sincronizadas com o iCloud.
Além disso, destacou que, na verdade, ocorrerá uma mera checagem de códigos, a serem comparados com os existentes em um banco de dados de materiais relacionados a abusos. Sendo assim, somente alertas é que serão avaliados.
"Gostaríamos que isso tivesse ficado um pouco mais claro para todos, pois estamos confiantes e certos daquilo que estamos fazendo", pontuou Craig — que não deixou de ressaltar a presença de "vários níveis de auditabilidade" na solução, capazes de, afirma, aprimorar a segurança dos clientes da empresa.
Craig Federighi, líder de software da Apple.Fonte: Apple/Reprodução
Literalmente verificação específica, indica representante
Ainda segundo o porta-voz, ferramentas de varredura se encontrarão somente nos dispositivos, não nos servidores, e isso possibilita que pesquisadores de segurança e outros especialistas em tecnologia rastreiem o uso delas, assim como analisem manipulações eventuais — aplicadas para que os recursos executem mais funções do que aquelas para as quais foram projetados. Em tese, essa capacidade evita, por exemplo, acusações infundadas.
"Se você olhar para quaisquer outros serviços de nuvem, perceberá que atualmente estão digitalizando fotos, olhando para cada uma delas no ambiente e as analisando. Queríamos poder localizar essas fotos [no iCloud] sem, de fato, visualizá-las", exemplificou.
Códigos de fotos na nuvem é que serão comparados, nada mais, defende executivo.Fonte: Apple/Reprodução
Por fim, Federighi argumentou que o sistema de análise é uma iniciativa separada da gigante dentre as direcionadas à alertas de conteúdo impróprio. Essas, reforçou, dizem respeito a produtos voltados a educação do público, não potencialmente punitivos, como o mais recente.
"Não nos dedicamos a uma análise voltada a algo do tipo 'Você tinha uma foto do seu filho na banheira?' ou 'Você tinha uma foto de algum tipo de pornografia?' É, literalmente, apenas verificação de impressões digitais exatas de imagens específicas de pornografia infantil", finalizou o executivo, sugerindo que capturas comuns permanecerão fora do alcance de terceiros — até mesmo deles.
Fontes
Categorias