Se você é um pouco ligado nas notícias sobre o mundo da tecnologia, já deve ter esbarrado mais de uma vez em polêmicas envolvendo a moderação de conteúdo do Facebook. Conteúdos inofensivos são retirados do ar de forma sumária, enquanto outros, com discursos de ódio, levam dias para serem removidos ou continuam disponíveis dentro da rede, gerando alguma controvérsia em torno do tema.
Mas qual a política do Facebook para decidir se um conteúdo deve ou não ser removido? Até então, isso era um tanto obscuro, afinal a rede nunca se pronunciou de forma clara sobre estes detalhes. Contudo, uma reportagem do jornal britânico The Guardian deste domingo (21) trouxe à tona a política de moderação da plataforma criada por Mark Zuckerberg, escancarando diretrizes bastante polêmicas.
A publicação teve acesso a mais de 100 documentos que são distribuídos pela rede social aos seus moderadores, detalhando que tipo de materiais devem ou não ser removidos da plataforma. Como o material divulgado é extenso — e você pode conferi-lo na íntegra aqui (em inglês) —, nós vamos tratar apenas de alguns pontos de maior destaque.
Ameaças de violência
Em linhas gerais, quando se trata de ameaças feitas dentro da rede, a política do Facebook é deixar a coisa rolar desde que não envolvem ameaças mais sérias. Xingar alguém ou descrever um estrangulamento, por exemplo, não são encarados como ameaças críveis. Contudo, a rede mantém uma lista de pessoas e grupos vulneráveis, assim, discursos de violência direcionados a eles devem ser removidos.
Na lista estão chefes de estado e seus sucessores, candidatos a chefe de estado, oficiais da lei, testemunhas e informantes de crimes, vítimas de tentativas de assassinato, pessoas listadas como alvos em potencial em listas criadas pela Banned Dangerous Orgs, ativistas e jornalistas. Entre os grupos vulneráveis estão apenas sem-teto, estrangeiros e judeus sionistas (se você é das Filipinas, traficantes de droga também entram nesta lista).
Como exemplo de materiais que devem ser removidos, as diretrizes do Facebook incluem frases como “Eu vou destruir o escritório do Facebook em Dublin” ou “Alguém dê um tiro no Trump”. Por outro lado, frases que devem ser ignoradas pela moderação incluem “Chute alguém ruivo” e “Para estrangular uma vadia, certifique-se de aplicar toda a pressão bem no meio de sua garganta”.
Fotos e vídeos com violência
Mesmo quando marcados como impróprios por outros usuários do Facebook, fotos e vídeos contendo violência não necessariamente são removidos. A política do Facebook quanto a isso é um tanto confusa, pois afirma que compartilhamentos mostrando “pessoas ou animais morrendo ou feridos” devem ser removidos “se elas [as responsáveis pela postagem] também expressarem sadismo”.
É interessante clarificar que o conteúdo da postagem em si não é o fato mais relevante para os moderadores julgarem se ele deve ser removido ou não. “Não procuramos sadismo no assunto da foto ou vídeo”, revela o Facebook em suas diretrizes. “Nós procuramos expressões de sadismo no responsável pela postagem, o que inclui comentário verbal ou legenda.”
A mesma lógica se aplica a fotos e vídeos de abuso físico (não sexual) e psicológico de crianças. Eles não precisam ser excluídos a menos que haja alguma colocação de sadismo acompanhando o compartilhamento. De forma semelhante, vídeos de abuso de animais também podem ser mantidos, sendo no máximo marcados como “perturbador” e sempre respeitando a ideia de proibição de sadismo.
Assim, se alguém compartilha a imagem de alguém sofrendo algum tipo de violência e diz “Ele fez por merecer” ou “Usar a força é a única maneira de disciplinar um cachorro”, apoiar a pena de morte ou mesmo apoiar "justiçamentos", isso não é considerado uma violação pelo Facebook. Já sentenças como “Vê-la queimar me deixou excitado” ou “Eu adoro o quanto ela se machucou” são consideradas sádicas e, portanto, passíveis de remoção.
Fotos de vídeos de auto-ofensa
Outro tema polêmico que aparece nas diretrizes de moderação do Facebook envolve a auto-ofensa. Segundo os documentos vazados, a companhia “não quer censurar ou punir pessoas aflitas que tentam cometer suicídio”, assim, materiais que contenham este tipo de cena não necessariamente devem ser removidos.
Conforme as diretrizes da empresa, ela pretende “ajudar e apoiar pessoas em sofrimento”, além de “permitir apoio na vida real por parte de amigos.” Apesar de não banir sumariamente conteúdos que envolvem auto-ofensa e tentativas de suicídio, o Facebook garante que “não tolera a promoção, coordenação ou encorajamento de tais comportamentos.”
Um trecho do documento garante que “remover conteúdos que promovem auto-ofensa pode causar dificuldades aos usuários na hora de procurar ajuda no mundo real”. Assim, é possível presumir que a intenção da rede social é garantir que a publicidade dada por este tipo de material permita que amigos e familiares tomem ciência de um potencial depressivo ou suicida de algumas pessoas.
Nudez e pornografia
Nudez e pornografia são expressamente proibidas no Facebook, assim, conteúdos que apresentam essa característica devem ser removidos pelos moderadores. Algumas exceções, como nudez no contexto do Holocausto (prisioneiros sem roupa em campos de concentração, por exemplo), não devem ser retiradas.
Este posicionamento mostra um avanço do Facebook e provavelmente é parte de uma revisão da rede após uma das mais icônicas fotografias da Guerra do Vietnã ter sido removida da plataforma no ano passado justamente por apresentar nudez.
Facebook trata o revenge porn como alta prioridade em suas diretrizes de moderação.
As diretrizes de moderação trazem ainda um tópico específico sobre a vingança pornô, que é a divulgação não autorizada de fotos íntimas. A rede social levanta três pré-requisitos para que uma foto ou um vídeo se enquadre neste tipo de publicação: (1) imagens feita em ambiente privado; (2) a pessoa nas imagens está nua, seminua ou em ato sexual; e (3) ausência de consentimento para a publicação.
Este último tópico precisa ser confirmado (ausência de consentimento) de acordo com “contexto de vingança” encontrado na legenda ou nos comentários e também em fontes independentes, como publicações na imprensa. Atualmente, a chamada revenge porn é considerada um tema de “alto nível” de importância pela rede social, algo extremamente positivo dada a amplitude alcançada pelos materiais postados no Facebook.
Posicionamento do Facebook
Em nota enviada ao Tecmundo, o Facebook afirmou que mantém o compromisso de garantir a segurança de seus usuários sem ferir a liberdade de expressão. Além disso, a companhia ressalta a intenção de ampliar o time de operações para tornar mais preciso o processo de moderação de conteúdo dentro da plataforma.
A companhia promete ainda tornar cada vez mais simples o processo de denunciar conteúdos dentro da rede social. A intenção é tornar mais simples a vida de usuários que desejem entrem em contato com as autoridades sempre que julgarem necessário.
Confira na íntegra a nota assinada pela diretora global de Políticas de Conteúdo do Facebook, Monika Bickert:
Manter as pessoas seguras no Facebook é a nossa maior prioridade. Nós trabalhamos muito para fazer do Facebook o mais seguro possível e, ao mesmo tempo, permitir a liberdade de expressão. Isso exige uma reflexão detalhada sobre temas geralmente complexos, algo que levamos muito a sério. Recentemente, Mark Zuckerberg anunciou que vamos contratar 3 mil pessoas para trabalhar no nosso time de operações em todo o mundo, além das 4.500 que temos hoje, para revisar milhões de denúncias que recebemos todas as semanas, e para melhorar e acelerar o processo de revisão de conteúdos que possam ferir nossas políticas. Além de investir no aumento de pessoal, estamos construindo melhores ferramentas para manter nossa comunidade segura. Vamos simplificar os mecanismos de denúncias, agilizar o processo para nossos revisores determinarem quais posts violam nossos padrões e facilitar para que eles possam entrar em contato com as autoridades quando alguém precisar de ajuda.
Categorias