A regulação das redes sociais no Brasil é um assunto bastante polêmico e que rende muitas discussões, mas novidades concretas sobre o tema finalmente devem surgir em 2023.
Uma audiência pública realizada pelo Supremo Tribunal Federal (STF) entre 28 e 29 de março debateu o papel das redes sociais nas publicações dos usuários e até que ponto a pessoa ou a empresa devem ser responsabilizados no caso de crimes.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Porém, o tema vai além da simples moderação de conteúdo e provoca reações positivas e negativas antes mesmo de ser implementado.
O que é (e o que não é) regular as redes sociais
A atual proposta no contexto brasileiro é um processo que envolveria uma série de normas e convenções sobre como as redes digitais são avaliadas do ponto de vista legal e institucional.
Dessa forma, seria possível ao mesmo tempo garantir as liberdades dos usuários, evitar que o ambiente online seja um território em que tudo é permitido e buscar um meio-termo na responsabilização das empresas quando for necessário.
O ministro Alexandre de Moraes é uma das autoridades do STF que trata do assunto.Fonte: Getty Images
Isso significa definir como lidar com conteúdos ofensivos — desinformação, crimes virtuais (como stalking, terrorismo ou consumo de material impróprio), discursos de ódio e até ataques à democracia. Além disso, a ideia é exigir mais transparência das Big Tech em seus algoritmos, entendendo exatamente como ela recomenda conteúdos e por que impulsiona certas publicações.
Ou seja, a ideia não é controle absoluto sobre o funcionamento desses aplicativos em território nacional, nem a obrigatoriedade de remoção de certos conteúdos ou um incentivo à censura.
- Veja também: Lula defende regulação das redes sociais na Unesco
Por outro lado, os detalhes dessa regulação não foram divulgados. Eles devem ser baseados em legislações de outras regiões, como na União Europeia, que passou pelo processo em abril de 2022.
A UE definiu regras de monitoramento, maior responsabilização contra crimes virtuais e punições pesadas para o caso de não cumprimento das medidas nas plataformas digitais de alto número de acessos.
A regulação deve ser tema de um PL no Brasil ainda em 2023.Fonte: Getty Images
Algumas autoridades já se manifestaram sobre o assunto. O ministro de Justiça e Segurança Pública, Flávio Dino, confirmou que um projeto de lei (PL) está em fase de preparação e pode ser aprovado ainda este ano. Já o ministro Alexandre de Moraes, do STF, sugeriu que uma regulação deve acontecer porque o modelo atual é “ineficiente”, “falido” e tira responsabilidade das redes.
E o Marco Civil?
Outro ponto de debate diz respeito à legislação que já existe para lidar com esse assunto: o Marco Civil da Internet, que está em vigor, embora alguns de seus artigos tenham sido modificados.
Esse conjunto de leis vai além de punições e trata também de princípios, garantias, direitos e deveres do consumidor e de empresas do setor — como a neutralidade da rede, que volta e meia volta ao debate no país.
O Marco Civil da Internet foi aprovado em 2014.Fonte: Planalto
Agora, a questão envolve o artigo 19: plataformas são responsabilizadas por conteúdos de terceiros apenas se não tomarem ações contra um conteúdo alvo de decisão judicial. Nos demais casos, sem o pedido, elas não poderiam ser punidas ou multadas caso não tirem algo do ar.
Representantes de outros segmentos da sociedade, como agências reguladoras, universidades, ministros e parlamentares devem participar do debate em algum ponto. Há quem considere as atribuições originais do Marco Civil insuficientes, enquanto outro lado defende que a atual já cumpre o desejado.
O que dizem as empresas
No geral, as plataformas digitais concordam que o artigo 19 do Marco Civil não é inconstitucional, pois as empresas fazem remoção de conteúdos mesmo sem pedido judicial.
Caso ele mude, entretanto, a pressão sobre as redes sociais cresceria — e elas temem até o aumento de remoções irregulares.
Na audiência, o advogado da Meta (dona do Facebook, Instagram e WhatsApp) afirmou que a plataforma realiza a autorregulação, controlando conteúdos irregulares, não sendo necessária uma intervenção.
O Facebook é uma das redes impactadas pelo debate.Fonte: GettyImages
A Google também rejeitou o aumento da responsabilização e defendeu a legislação, porém está aberta a fazer complementos no artigo 19. O TikTok também defendeu a análise própria e interna. Por fim, a consultora jurídica do Twitter citou “liberdade de expressão” e “informação descentralizada” como direitos fundamentais da plataforma, garantidos nas leis atuais.
As companhias apresentaram dados para confirmar que seguem solicitações judiciais, mas em maior número também removem conteúdos de forma espontânea, na própria moderação. Entretanto, o debate ainda deve continuar — e sempre acompanhado de pontos mais sensíveis.
Fontes
Categorias