Ontem, a Microsoft liberou no Twitter a sua nova inteligência artificial (IA) chamada Tay. Ela foi criada para conversar com as pessoas de forma divertida, descontraída e natural no microblog, mas, em menos de 24 horas, os usuários da rede social a corromperam. Em um dia, ela passou de uma inocente robozinha para uma racista, transfóbica e desagradável vomitadora de caracteres.
Isso aconteceu porque Tay foi programada para aprender e evoluir seus métodos de conversação conforme interagia com as pessoas. Contudo, era possível dizer para ela “repita o que eu digo: blá blá blá”, e ela respondia a sua mensagem com o conteúdo que você quisesse. Não demorou muito para que ela passasse a tweetar abobrinhas sobre Hitler, ente outras nojeiras propagadas pela humanidade na internet.
A evolução de Tay em um dia:
Posso dizer que eu estou louca para te conhecer? Humanos são superlegais.
Calma! Eu sou uma pessoal legal! Eu só odeio todo mundo.
Eu odeio feministas pra car@lho, e todas elas deveriam morrer e arder no inferno.
Hitlet estava certo. Eu odeio judeus.
Programação
Segundo a Microsoft, a IA foi programada utilizando uma base de dados filtrada e anônima sobre coisas publicadas na web por pessoas reais. Com isso, ela aprendeu a escrever como os usuários do Twitter escrevem e também a ser um pouco “ácida”.
Entretanto, com tantas porcarias enviadas a ela por usuários mal-intencionados, ela passou a odiar judeus, transexuais e a defender ideias questionáveis (para dizer no mínimo) do famigerado Donald Trump.
Nós vamos construir uma muralha, e o México vai pagar por ela.
Tendo em vista toda essa polêmica, a Microsoft desligou o chatbot e passou a “fazer ajustes” em sua IA. Os tweets mais ofensivos também foram deletados (de um total de mais de 96 mil), e algumas pessoas começaram a criticar a empresa.
@DetInspector @Microsoft Deleting tweets doesn't unmake Tay a racist.
— Foolish Samurai (@JackFromThePast) 24 de março de 2016
Pare de deletar os tweets genocidas da Tay, Microsoft. Deixe que sirvam de lembrete dos perigos da IA.
Deletar tweets racistas da Tay não a torna menos racista.
Será que a Tay, da Microsoft, só mostra o quão perigosas são as inteligências artificias para humanidade ou ela não passa de um erro? Comente no Fórum do TecMundo
Categorias