Uma pesquisa apresentada durante o 31º Simpósio de Segurança Usenix realizado em agosto, e agora em fase de pré-publicação, revelou um método simples para burlar a detecção por mecanismos de varredura de conteúdo de imagens, como o famigerado CSAM, o detector de material de abuso sexual infantil da Apple. Seus autores, pesquisadores do Imperial College de Londres, garantem que é possível enganar esses algoritmos 99,9% sem alterar visualmente as imagens.
O CSAM (Child Sexual Abuse Material) foi uma proposta controversa apresentada pela Apple no início deste ano. A ideia acabou sendo retirada de pauta em setembro, após forte reação de clientes, grupos de defesa da privacidade e pesquisadores de segurança. A alegação desses grupos é que a empresa de Cupertino estaria, na prática, inserindo um backdoor em cada iPhone com o iOS 15 instalado, capaz de expor milhões de pessoas ao monitoramento automático e até manual.
Como a gigante da tecnologia ainda não abandonou o projeto, prometendo lançá-lo em 2022, os pesquisadores levantaram a hipótese de um mecanismo distópico semelhante ao do Big Brother da obra 1984, de George Orwell, e apresentaram a seguinte problematização: até que ponto esse sistema de detecção de imagens é capaz de funcionar de forma confiável?
Como os pesquisadores enganaram o CSAM
Fonte: Usenix/DivulgaçãoFonte: Usenix
Como a tecnologia NeuralHash da Apple é construída com base em leitura de hashes (algoritmos de mapeamento de dados), o segredo para enganar a máquina, explica a pesquisa, é aplicar um filtro especial de hash nas imagens, fazendo com que pareçam diferentes para o algoritmo de detecção, embora o aspecto visual a olho nu permaneça praticamente o mesmo.
O estudo também conclui que uma possível contramedida, que seria aumentar o tamanho do hash de 64 para 256, funcionaria mas traria informações adicionais sensíveis, com risco à privacidade dos usuários.
Fontes
Categorias