Fim de checagem de fatos aumentará desinformação em redes da Meta, dizem especialistas

4 min de leitura
Imagem de: Fim de checagem de fatos aumentará desinformação em redes da Meta, dizem especialistas

As alterações na moderação das redes sociais da Meta anunciadas nesta semana por Mark Zuckerberg preocupam especialistas em Direito e plataformas digitais no Brasil. Segundo profissionais consultados pelo TecMundo, caso sejam aplicadas no país, as medidas teriam consequências negativas para o público das plataformas.

O novo cenário de Facebook, Instagram e Threads envolve o fim da checagem de fatos e a troca por notas da comunidade, o retorno de posts políticos entre conteúdos recomendados e uma moderação mais flexível para determinados temas, como a representatividade LGBTQIA+.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

No geral, há o receio de o ambiente digital tenha ainda mais conteúdos duvidosos ou falsos, em especial com um menor esforço da empresa para retirá-los. Ainda assim, a própria legislação brasileira pode acabar limitando o efeito das alterações prometidas pela Meta.

Os problemas da medida de Zuckerberg

Algumas das consequências práticas das mudanças da Meta já foram confirmadas, inclusive a liberação de postagens que associem o público LGBTQIA+ a doenças mentais. A companhia justifica a não proibição desses comentários por acreditar que há discussões "culturais e políticas" envolvendo esse e outros temas.

"O encerramento da moderação e checagem de fatos pela Meta terá como consequência o aumento exponencial da desinformação, especialmente em um cenário já marcado por polarização política e social", alerta a pesquisadora em educação midiática Clara Becker, cofundadora da ONG Redes Cordiais.

Mark Zuckerberg, CEO da Meta. (Imagem: GettyImages)
Mark Zuckerberg, CEO da Meta. (Imagem: GettyImages)

Para a pesquisadora, a falta de mecanismos eficazes contra conteúdos falsos pode significar a livre circulação de teorias conspiratórias, informações manipuladas e discurso de ódio — que, em alguns casos, podem ser considerados como crime no Brasil.

Além disso, as medidas ainda reforçam a aproximação do empresário com o futuro governo dos Estados Unidos, sob a presidência de Donald Trump e um discurso de forte caráter conservador.

"Essa decisão do Zuckerberg não parece ter nada a ver com liberdade de expressão, embora ele tenha tentado vestir essa rouba bonita do tema", afirma o professor da FGV Direito Rio, Álvaro Jorge.

Segundo ele, o movimento da Meta tem um interesse mais empresarial do que político. Ainda assim, ele precisaria explicar certos pontos do comunicado, como a acusação de que há "cortes secretas" na América Latina.

O que o Marco Civil diz sobre a mudança?

Antes de qualquer ação, porém, é necessário avaliar se essas políticas são transparentes ou violam a legislação brasileira. Como aponta a advogada Camila Camargo, consultora da Andersen Ballão Advocacia, a Meta não explicou com detalhes se as mudanças são globais ou restritas aos Estados Unidos.

"Se aplicadas ao Brasil, a princípio, não há uma violação ao Marco Civil da Internet na medida em que não há uma determinação específica sobre como a moderação de conteúdo deve ocorrer", explica.

Após o anúncio, o Ministério Público Federal (MPF) pediu detalhes da ação para a empresa, que também foi criticada pelo ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), pelo vice-presidente Geraldo Alckmin, e o ministro da Fazenda, Fernando Haddad.

Como aponta a advogada, o artigo 19 do Marco Civil determina que as plataformas digitais "apenas serão responsabilizadas por conteúdos de terceiros caso descumpram uma ordem judicial de remoção de conteúdo". Ou seja, ao mudar a própria moderação, a Meta não estaria tecnicamente se “eximindo de responsabilidade”, mas "alterando a forma de controle de desinformação".

Decisões judiciais seguirão mesmo com liberações nas redes. (Imagem: GettyImages)
Decisões judiciais seguirão mesmo com liberações nas redes. (Imagem: GettyImages)

Esse ponto da lei é controverso e pode sofrer alterações — ele é um dos tópicos da agora pausada lei de regulação das redes sociais, que transferiria às plataformas parte da responsabilidade pelo que é publicado por usuários. A pesquisadora Clara Becker acredita que, com a nova decisão da Meta, esse tema pode voltar ao debate público.

Já Álvaro ressalta que cada país tem a sua própria adequação do funcionamento das redes sociais com as próprias leis, o que significa que as punições por conteúdos no ambiente digital variam de acordo com o país e não devem ser tratadas de forma generalizada.

Existe solução ideal para a moderação?

Apesar das críticas ao novo sistema da Meta, é difícil chegar a um consenso sobre os meios mais eficientes de se manter um ambiente nas redes livre de desinformação e discursos de ódio.

As notas da comunidade que serão adotadas pela Meta, com contextualizações publicadas por outros usuários, recebem algumas críticas. "O X já demonstrou a ineficácia desse modelo", explica Álvaro, notando a possibilidade de manipulação desses conteúdos na rede social antes chamada de Twitter e nas adequações ao posicionamento do dono da plataforma, Elon Musk.

Musk, dono do X, virou membro do governo de Trump após participar da campanha (Imagem: GettyImages)
Musk, dono do X, virou membro do governo de Trump após participar da campanha (Imagem: GettyImages)

O professor acredita que o modelo pode ser aprimorado, mas no momento "não é o ideal para lidar com discurso falso ou mentiroso". Além disso, as mudanças não devem impedir a atuação de tribunais.

"Toda vez que a liberdade de expressão ultrapassar os limites constitucionais e atingir outros direitos, o Judiciário poderá sempre intervir como vem fazendo desde antes", reforça Álvaro.

Clara também critica o recurso usado sozinho e sugere "um equilíbrio entre liberdade de expressão e responsabilidade", em uma combinação de métodos que envolvam tanto a comunidade quanto profissional. Ainda assim, ela crê que não há uma solução única e certeira, mas é possível reduzir danos de outras formas.

"A educação midiática deve ser uma prioridade contínua. Ensinar as pessoas a identificar mentiras, pensar criticamente e questionar informações não apenas fortalece o ambiente informacional, mas também empodera os usuários a participarem de forma mais consciente do debate público", propõe a pesquisadora.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.