O YouTube está passando por uma grave crise envolvendo pedofilia e a segurança de crianças: no começo do mês de fevereiro, um youtuber chamado Austin Jones confessou ter coagido meninas com idades entre 14 e 15 anos a enviarem vídeos pornográficos para ele e teve sua conta removida da plataforma.
Há alguns dias, um vídeo onde um homem dava instruções para crianças sobre como se suicidarem foi encontrado no YouTube e removido pela empresa. Isso e outros casos fizeram com que grandes marcas - como a Nestlè e a Disney - que aplicavam muito dinheiro em publicidade na plataforma de streaming boicotaram o serviço.
Hoje, o YouTube anunciou novas medidas para garantir a segurança de menores na plataforma, incluindo a desativação de comentários em vídeos com crianças, o lançamento de um novo classificador de comentários e a contínua ação contra produtores de conteúdo que causam danos à comunidade.
Explicando as mudanças
Em um comunicado, o YouTube se dirigiu aos criadores de conteúdo afirmando que as medidas foram tomadas para proteger os mais jovens que acessam a plataforma. Durante as últimas semanas, o serviço desabilitou os comentários de dezenas de milhões de vídeos que poderiam “atrair comportamentos predatórios”. Além desses, outros conteúdos que demonstrarem potencial para esse tipo de comportamento também terão os comentários desativados.
Um novo sistema de classificação de comentários vai ajudar o YouTube a remover mais mensagens danosas, que ferem a política de segurança, assim como as centenas de milhões já apagados pela plataforma. As mudanças não vão afetar a monetização dos vídeos. O comunicado termina com a afirmação de que criadores de conteúdo que produzam vídeos que sejam um risco para crianças e jovens serão sumariamente expulsos da plataforma.
O YouTube pede para que usuários continuem denunciando conteúdos ou comentários que sejam danosos de qualquer forma usando as ferramentas da plataforma.
Fontes