Na última semana, o Facebook anunciou uma série de mudanças na plataforma com o intuito de diminuir os efeitos da divulgação de informações falsas e de discurso de ódio em países em conflito. As estratégias se concentram em remover postagens com esse tipo de conteúdo, reduzir a desinformação e a polarização e desenvolver programas de literacia digital para que as pessoas entendam o ambiente no qual estão inseridas.
A empresa anunciou a criação de uma equipe dedicada a prevenir abusos na plataforma e proteger grupos vulneráveis em situações de conflito. Além disso, apresentou uma série de mudanças nas configurações da rede social com a intenção de diminuir a recorrência de conteúdos violentos.
A primeira estratégia é remover conteúdos que tragam discursos de ódio e usuários que os compartilhem. O Facebook diz implementar o processo por meio de inteligência artificial e que está trabalhando para melhorar o diagnóstico de tal tipo de postagem em idiomas locais. A companhia argumenta que já tem conseguido remover mais materiais desse tipo atualmente que no passado, sem que ele precise ser denunciado pelos usuários.
(Fonte: Facebook/Divulgação)
Outra estratégia é limitar o compartilhamento de mensagens por meio do Messenger. De forma semelhante ao que fez com o WhatsApp, o Facebook limitou para quantas pessoas uma mensagem pode ser encaminhada por meio do aplicativo.
Por fim, a empresa fechou acordo com alguns parceiros para que denunciem os conteúdos diretamente. Em contrapartida, eles também oferecerão treinamentos para os usuários, a fim de conscientizá-los sobre uma utilização segura da internet.
O que motivou as mudanças?
No ano passado, a rede social reconheceu que foi utilizada para fomentar violência contra alguns grupos em Myanmar e em outros países asiáticos. O anúncio é, portanto, uma estratégia para responder às críticas e evitar que algo semelhante aconteça em outros locais. Em Myanmar, o Facebook é praticamente a internet, sendo a principal fonte de informação.
Categorias