A Apple divulgou nesta sexta-feira (13) um documento no qual fornece mais detalhes sobre os novos recursos de segurança com foco nas crianças, anunciados no início do mês. Nele, a empresa explica como funcionará o sistema de detecção de material de abuso infantil (CSAM) que tem gerado preocupações em relação à privacidade.
Conforme a Maçã, o banco de imagens utilizado para detectar fotos possivelmente relacionadas à exploração infantil na galeria do dispositivo será gerado por pelo menos duas organizações diferentes. Elas operam em jurisdições separadas e não estão sob o controle do mesmo governo.
A gigante de Cupertino também disse que publicará, em seu site, um artigo da Base de Dados de Conhecimento contendo um hash de raiz do banco de dados criptografado em cada versão do sistema operacional compatível. Dessa forma, o usuário poderá inspecionar o hash de raiz em seu aparelho e compará-lo com o da Base.
A Apple usará bancos de dados fornecidos por duas organizações independentes na busca por materiais de abuso infantil.Fonte: Apple/Divulgação
Essa medida, explica a dona do iPhone, facilitará a realização de auditorias por empresas independentes, para comprovar o funcionamento correto da ferramenta. O documento completo, incluindo informações sobre a revisão manual que entrará em ação após uma conta atingir o limite de imagens CSAM, pode ser conferido no site da Apple (em inglês).
Lançamento confirmado
O sistema de escaneamento de fotos do iCloud em busca de imagens que possam indicar abuso infantil tem sido motivo de muitas discussões desde que foi anunciado. Especialistas e entidades chegaram a criar uma carta aberta à Apple, com mais de 6 mil assinaturas, pedindo a suspensão imediata do recurso.
Apesar das críticas, reforçadas pelo ex-funcionário da NSA Edward Snowden e o criptógrafo Nadim Kobeissi, a big tech manteve o lançamento dos novos recursos de segurança infantil. Eles chegarão primeiro aos usuários do iPhone, iPad e Mac, nos Estados Unidos, até o final deste ano.
Categorias