A Apple anunciou nesta sexta-feira (3) que não lançará agora a sua controversa tecnologia de detecção de material de abuso sexual infantil (CSAM), anunciada no mês passado. A empresa explicou ao site TechCrunch que irá "reservar um tempo adicional nos próximos meses" para analisar melhor e fazer ajustes, antes do lançamento desses recursos de segurança.
O adiamento foi feito, segundo a empresa, "com base no feedback de clientes, grupos de defesa, pesquisadores e outros". Como divulgado anteriormente, esse retorno dos usuários foi amplamente negativo. Só a ONG de defesa das liberdades civis Electronic Frontier Foudation colheu mais de 25 mil assinaturas de consumidores contra a medida. A respeitada ACLU (American Civil Liberties Union) também pediu à Apple que desistisse do procedimento.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Fonte: Apple/DivulgaçãoFonte: Apple
Como funciona a tecnologia de detecção de CSAM da Apple?
Chamado de NeuralHash, o novo recurso da Apple consiste em um algoritmo supostamente capaz de detectar conteúdos de pornografia infantil em dispositivos de usuários, sem obter a imagem ou mesmo conhecer o seu conteúdo. Como fotos armazenadas no iCloud são criptografadas de ponta a ponta — para que nem mesmo a própria dona do sistema consiga acessar —, o NeuralHash procura CSAM diretamente nos computadores e celulares.
Se as intenções soam como as melhores possíveis, especialistas em cibersegurança e defensores da privacidade na internet vêm expressando sua preocupação com um possível desvirtuamento do sistema por atores poderosos, como governos totalitários, para explorar e oprimir seus cidadãos.
Outra preocupação são os possíveis falsos positivos. Um usuário do agregador social Reddit usou a engenharia reversa para criar "colisões de hash" no NeuralHash, ou seja, utilizou o próprio algoritmo matemático que transforma dados em caracteres (hash) para enganar o sistema. Comparando uma imagem diferente do banco de dados CSAM do dispositivo, o especialista "o iludiu" como se as imagens fossem iguais.
Fontes
Categorias