O WhatsApp é o app de mensagens mais usado no mundo, e um dos recursos mais alardeados por seus desenvolvedores é a segurança. Como ele é criptografado de ponta a ponta por padrão, as mensagens ficam protegidas e, em tese, não podem ser interceptadas por ninguém.
Esse tipo de segurança é ótimo para evitar espionagem de hackers e governos, mas também cria defesas para que materiais ilegais circulem livremente no mensageiro. E esse parece ser o caso do momento, com o WhatsApp se transformando em um campo fértil para compartilhamento de pornografia infantil.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Reportagem do site TechCrunch releva alguns detalhes dessa situação e também como o Facebook, dono do WhatsApp, age de forma relapsa para tentar coibir essa prática.
Conteúdo explícito, moderação limitada
Existem alguns aplicativos cuja única função é encontrar grupos do WhatsApp, uma opção que o app não tem de forma nativa. Por meio deles, qualquer usuário pode, por exemplo, localizar grupos legítimos, inclusive com pornografia legal, mas também outros ilegais e com títulos bem explicativos, como “child porn only no adv” (“só pornografia infantil sem anúncios”, “child porn xvideos” e “vídeos cp” (“vídeos de pornografia infantil”).
Mas se é tão fácil para um usuário encontrar esses grupos, por que o Facebook também não encontra, remove tudo e bane os seus participantes? Atualmente, o trabalho de moderação manual dentro do WhatsApp fica a cargo de seus 300 funcionários, o que parece pouco diante de um universo de 1,5 bilhão de usuários.
Para comparação, o Facebook anunciou recentemente a ampliação de 10 mil para 20 mil no número de moderadores na rede social, a fim de reprimir possíveis interferências nas eleições e outras violações das diretrizes de uso da plataforma. Segundo o Statista, o Facebook tem hoje pouco mais de 2,2 bilhões de membros.
A investigação
A investigação do conteúdo ilegal no WhatsApp foi feita por duas ONGs israelenses, chamadas Screen Savers e Netivei Reshe. Elas iniciaram a pesquisa em julho deste ano após receberem uma denúncia e catalogaram 10 grupos e apps durante 20 dias antes de elaborar um relatório completo.
As organizações entraram em contato com Jordana Cluter, chefe da divisão de diretrizes do Facebook, em 4 de setembro e solicitaram uma reunião presencial quatro vezes. A executiva negou o pedido e solicitou uma prova da investigação por email, o que não foi fornecido.
As ONGs, então, entraram em contato com as autoridades israelenses e não liberaram o relatório da pesquisa para a rede social, que obteve o material somente nesta quinta-feira (20), por meio do TechCrunch.
Facebook explica
Apesar dos resultados obtidos pelas ONGs, um porta-voz do WhatsApp afirmou que a empresa já removeu mais de 130 mil contas nos últimos 10 dias por temas relacionados à pornografia infantil. O Facebook ainda se coloca à disposição da polícia de Israel para “iniciar uma investigação para parar este abuso”.
A empresa garante que usa tecnologia para rastrear todo o material não criptografado da rede; ou seja, tudo o que não são as conversas em si. O material coletado, como informações pessoais públicas, descrição e nome de grupos e fotos de perfis e grupos, é comparado com bancos de dados a fim de identificar ilegalidades.
Se uma imagem ou informação suspeita não é identificada como abusiva pelo sistema, ela acaba sendo revisada por um moderador humano. Quando pessoas e grupos são identificados com o compartilhamento de pornografia infantil, eles são excluídos e banidos permanentemente da plataforma, revela o Facebook.
Mesmo com tantas ações, ainda não é difícil encontrar grupos suspeitos no mensageiro, o que denota alguma falha do sistema na hora de avaliar até mesmo materiais suspeitos. Acaba que, independentemente das ações tecnológicas por trás desse tipo de investigação, o aporte humano ainda é decisivo para combater abusos na internet.
Fontes