Facebook amplifica discurso de ódio pelo lucro, diz ex-funcionária

2 min de leitura
Imagem de: Facebook amplifica discurso de ódio pelo lucro, diz ex-funcionária
Imagem: Brett Jordan/Pexels
Conteúdo oferecido por

O programa 60 Minutes exibiu, neste domingo (3), uma entrevista com Frances Haugen. Responsável por vazar documentos internos do Facebook para o Wall Street Journal, a ex-gerente de produtos da empresa fez várias denúncias sobre a plataforma.

Em destaque, a ex-funcionária citou que a companhia é tão comprometida com a otimização dos produtos que adotou algoritmos que amplificam o discurso de ódio. Uma medida que visava apenas os lucros, segundo ela.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Frances Haugen apareceu pela primeira vez em público no 60 Minutes.Frances Haugen apareceu pela primeira vez em público no 60 Minutes.Fonte:  The Verge/60 Minutes 

Conforme o antigo perfil no LinkedIn, Haugen trabalhou no Facebook até o início de 2021. Ela revela que não acreditava que a empresa estivesse disposta em investir o que realmente é necessário para que a plataforma seja um ambiente saudável.

“Havia conflito interno entre o que era bom para o público e para a companhia. A empresa escolheu várias vezes otimizar os algoritmos para os próprios interesses, como ganhar mais dinheiro”, disse a ex-funcionária.

Influência nas sociedades ao redor do mundo

Haugen afirma que o problema teve início com o algoritmo do Facebook lançado em 2018. Analisando as formas de engajamento, a plataforma descobriu que os conteúdos que inspiravam medo e ódio nos usuários eram os que tinham melhor desempenho.

Mark Zuckerberg disse, na época, que as alterações eram “positivas e visavam o bem-estar das pessoas”. Entretanto, o resultado passou a ser o aumento da propagação de conteúdos relacionados a discursos de ódio.

Implantado em 2018, o algoritmo não cumpre o que é prometido pelo Facebook.Implantado em 2018, o algoritmo não cumpre o que é prometido pelo Facebook.Fonte:  Austin Distel/Unsplash 

“Desinformação, toxicidade e conteúdo violento são excessivamente predominantes entre os novos compartilhamentos”, cita um memorando interno sobre as mudanças do algoritmo analisado pelo Wall Street Journal.

Um documento vazado também destaca: “Estimamos que podemos trabalhar de forma menor com 3 a 5% de conteúdos de ódio e cerca de 0,6% de violência e incitamento no Facebook”.

Mais contundente, outro documento diz: “Temos evidências que uma variedade de fontes de discurso de ódio, discurso político divisionista e desinformação no Facebook e na família de aplicativos estão afetando sociedades em todo o mundo”.

Executivo do Facebook diz que empresa não influencia a polarização política nos EUA.Executivo do Facebook diz que empresa não influencia a polarização política nos EUA.Fonte:  Pexels 

Resposta do Facebook

Nick Clegg, vice-presidente de assuntos globais do Facebook, esteve no programa Reliable Sources, da CNN americana. Horas antes do 60 Minutes, o executivo defendeu a empresa sobre as recentes alegações publicadas.

“Isso é ridículo. Penso que é um conforto para as pessoas supor que deve haver uma explicação tecnológica para as questões de polarização política nos EUA”, disse Clegg a respeito das acusações da influência da plataforma na invasão do Capitólio em janeiro.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.