Nos últimos meses, o Twitter tem enfrentado o aumento dos problemas com bots, que infestam a rede propagando notícias falsas (fake news), sendo uma das grandes dificuldades enfrentadas pela plataforma.
Segundo o New York Times, vendedores de bots fazem muito dinheiro com o site, vendendo retweets ou seguindo perfis específicos e, às vezes, até roubando contas para isso. O jornal estima que existam cerca de 60 milhões de bots ativos. Após essa reportagem, iniciou-se uma desativação de contas em massa, e vários usuários relataram a perda de um grande número de seguidores.
Outro grande problema, mais difícil de se resolver, é o teor das mensagens postadas, pois não é tão simples montar uma estrutura automatizada que vigie as pessoas. Por isso, o CEO da empresa, Jack Dorsey, postou tweets em seu perfil expondo o ponto de vista da empresa e deixando clara a importância de se definir formas claras de medir o quão “saudável” é uma conversa no Twitter. “O que sabemos é que devemos nos comprometer com um conjunto de métricas rigorosas e independentes, para medir a saúde de conversas públicas do Twitter. E devemos nos comprometer a compartilhar os resultados publicamente, beneficiando todos que são influenciados por elas.”
What we know is we must commit to a rigorous and independently vetted set of metrics to measure the health of public conversation on Twitter. And we must commit to sharing our results publicly to benefit all who serve the public conversation.
— jack (@jack) 1 de março de 2018
O que a empresa busca é uma forma de analisar os dados e tomar providências em relação a comportamentos e postagens abusivos. Essa posição pode ser traiçoeira, considerando que será preciso avaliar milhões de pessoas e garantir que suas discussões sejam “saudáveis”, sem censurar nenhuma das partes.
Embora, para o Twitter, essa posição de responsabilidade social sobre o conteúdo postado por seus usuários seja importante, tentar resolver com dados e estatística um problema que fundamentalmente é filosófico pode ser bastante problemático.
Pessoas não se dão sempre bem umas com as outras — isso não é um problema, e até certo ponto a conversa pode ser saudável assim mesmo —, mas a partir de quando as coisas saem do limite e merecem uma “punição”? O uso de sistemas automatizados é muito raso nessas situações, então é necessário que seres humanos avaliem, mas quais parâmetros devem ser usados por essas pessoas? Jack expôs o problema — e para você, qual é o limite?
Fontes
Categorias