As empresas de tecnologia Meta (dona de Facebook e Instagram), TikTok e Snap (do Snapchat) anunciaram a criação de uma coalização para reduzir postagens nocivas à saúde mental. A ideia é monitorar especificamente casos sobre automutilação e tendências suicidas.
O projeto se chama Thrive e envolve também a Mental Health Coalition. Nele, as companhias poderão compartilhar dados, descobertas e sinais que indiquem esse tipo de conteúdo entre si para melhorar as ações nas plataformas digitais.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Ao detectarem sinais de publicações sobre esses temas, uma das empresas poderá avisar as demais para que elas também procurem conteúdos similares em seus respectivos serviços. Dessa forma, publicações de incentivo ou encorajamento ao suicídio, por exemplo, poderão ser identificados e deletados mais rapidamente.
Meta já tem projetos parecidos
A Meta será a responsável pela infraestrutura técnica do projeto. Ele não envolve o compartilhamento de dados pessoais dos usuários em nenhum momento: são usados hashes, códigos numéricos que correspondem a determinadas violações de conteúdo.
De acordo com a companhia, antes da criação da coalização, ela mesma tirou 12 milhões de conteúdos nocivos só entre abril e junho de 2024. Além disso, a marca passou a reduzir ou até cortar o alcance dessas publicações pelo algoritmo para adolescentes, mesmo se eles forem educativos ou de incentivo.
Apesar de alegar que age há anos para prevenir casos, a companhia já foi bastante criticada por permitir a presença ou até recomendar conteúdos que podem prejudicar a autoestima e piorar quadros como depressão em adolescentes. Ela já teve que responder no tribunal, por exemplo, sobre a responsabilidade na morte de uma jovem.
Fontes
Categorias