O Facebook está comprometido com o combate ao discurso de ódio dentro da rede social. Assim como outros serviços da web, a companhia de Mark Zuckerberg intensifica o cerco às publicações que pregam ódio e, em última instância, legitimam violência física e psicológica contra grupos considerados minoritários.
Entretanto, os desafios advindos desse compromisso também são variados, a começar pela definição do que é, de fato, discurso de ódio. Invocando também seu compromisso com a liberdade de expressão, a rede social garante que a intenção da plataforma é oferecer um ambiente onde as pessoas se sintam “bem-vindas e protegidas”, mas sem passar dos limites.
Quando é e quando não é?
Dessa maneira, o Facebook considera um discurso de ódio “tudo que ataca diretamente as pessoas baseadas no que e conhecido como as suas ‘características protegidas’”. Tais características incluem uma série de temas: raça, etnia, nacionalidade, religião, orientação sexual, sex, gênero, identidade de gênero ou doenças e deficiências graves.
As consequências legais de um discurso de ódio variam de acordo com o país em que ele acontece
O tratamento dado a esse tipo de discurso passa ainda pelo crivo da legislação local de cada país. “Na Alemanha, por exemplo, a lei proíbe o incitamento ao ódio”, informa o vice-presidente de política pública do Facebook Richard Allan. “Nos Estados Unidos, por sua vez, até mesmo os discursos de ódio mais hostis são legalmente protegidos pela Constituição.”
Além das questões da lei, há também os padrões éticos seguidos por pessoas diferentes. Assim, uma fala pode ser considerada um discurso de ódio por um sujeito, mas não por outro, o que também gera um impasse para um ambiente tão amplo e diversificado como é o Facebook.
Assim, para chegar à sua definição do que é discurso de ódio, o Facebook se baseia, por exemplo, em pesquisas acadêmicas como o Free Speech Debate e o Dangerous Speech Project, elaborados pelos pesquisadores Timothy Garton Ash e Susan Benesch, respectivamente.
Combate ao ódio virtual
“Nós estamos comprometidos com a remoção de discursos de ódio a partir do momento em que temos o conhecimento de sua ocorrência”, informa Allan. “Ao longo dos últimos dois meses, nós deletamos em média, a cada semana, 66 mil postagens reportadas como discurso de ódio — cerca de 288 mil postagens por mês.”
Apesar do empenho, o representante do Facebook relembra as dificuldades de identificar a temática de ódio em algumas postagens. Enquanto ameaças de violência, por exemplo, deixam isso claro, algumas vezes não há um consenso claro “porque as palavras em si são ambíguas” e “a intenção por trás delas é desconhecida ou o contexto em torno delas é pouco claro.”
Facebook quer continuar um espaço onde diferentes opiniões coexistem, mas sem dar vez aos discursos de ódio.
Contexto e intenção
Dessa maneira, a luta do Facebook contra o discurso de ódio na rede social se baseia em duas grandes premissas: contexto e intenção. Em relação ao contexto, a ideia é interpretar aspectos linguísticos e culturais regionais para avaliar em que panorama se encaixa uma declaração.
Avaliar onde uma expressão se coloca também em termos geopolíticos é algo levado em conta para decidir se algo é discurso de ódio ou não. Palavras "comuns" podem ganhar outros significados diante de conflitos entre países, por exemplo, o que gera a necessidade de análises mais amplas a fim de “educar” os algoritmos do Facebook a serem mais ágeis até que haja intervenção humana.
Para definir um discurso de ódio, o Facebook leva em conta o contexto e a possível intenção por trás de quem o profere
Em relação à intenção, a avaliação acaba sendo ainda mais sensível. Allan reconhece que as postagens feitas na rede normalmente estão inseridas dentro de um determinado contexto que envolve as relações sociais dos usuários. Assim, quando algo é acusado de violar as nossas diretrizes, “nós não dispomos desse contexto, portanto, podemos julgar apenas com base nos textos e imagens específicos que foram compartilhados”, revela o representante do Facebook.
Erros e aprimoramentos
Muitas vezes, alguém publica um material contendo discurso de ódio a fim de denúncia, o que pode causar confusão no Facebook e, consequentemente, uma remoção indevida. A rede social reconhece esse tipo de situação e promete trabalhar para aprimorar os seus filtros a fim de não deixar a impressão de censura em seus usuários. Para isso, ela conta com um misto de tecnologia e suporte da comunidade.
“A tecnologia vai continuar a ser uma parte importante em como nós tentamos melhorar”, revela Allan. "Mas, enquanto continuamos a investir em avanços promissores [em relação à tecnologia], nós estamos distantes de confiar plenamente no aprendizado de máquina e na inteligência artificial para lidar com a complexidade da avaliação do discurso de ódio.”
Discurso de ódio deve ter cada vez menos espaço no Facebook.
Diante desse cenário, o Facebook intensifica a participação humana por trás da filtragem de conteúdo. Para isso, os atuais 4,5 mil operadores de comunidade da plataforma serão ampliados para 7,5 mil ao longo de 2018. Com isso, a empresa pretende refinar seus filtros ao se inteirar mais dos aspectos culturais que um processo de moderação de uma plataforma global precisa ter.
Importante destacar que esse novo esclarecimento da rede social veio depois do vazamento das polêmicas diretrizes de moderação do Facebook, que, por exemplo, classificam ameaças genéricas a um chefe de estado como mais graves do que ataques a ruivos ou o emprego de termos misóginos para fazer referência a pessoas do sexo feminino.
Teria a reação do público influenciado essa fase “mais transparente” da rede social? Jamais saberemos. Mas, aparentemente, os comandados de Mark Zuckerberg têm se mexido para tornar a rede social um ambiente menos odioso — e a torcida é para que isso dê resultados positivos.
Fontes
Categorias