Em março de 2016, há quase dois anos, a Microsoft se viu mergulhada em uma polêmica inesperada. A empresa havia liberado no Twitter um software de inteligência artificial capaz de interagir com os usuários da rede social e aprender a partir disso a se comunicar com seres humanos. Na época, ainda não era tido como fato que redes sociais são, em boa parte, palanques para os piores tipos de seres humanos. Por isso, a ideia de fazer um software inteligente aprender alguma coisa nesse tipo de ambiente não era tão absurda.
A Microsoft, naturalmente, ficou ciente do erro que havia cometido e, em menos de 24 horas, tirou o robô do ar. Nesse meio tempo, entretanto, a Tay começou a publicar tweets raivosos, racistas, nazistas, xenófobos, misóginos e por aí vai. A desenvolvedora então teve que se desculpar e até apagou muitos dos tweets polêmicos. Você pode conferir mais detalhes dessa história aqui.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Bot da Microsoft endossando nazismo
Neste final de semana, entretanto, a empresa voltou a falar sobre o assunto. Paula Bellizia, CEO da Microsoft Brasil, comentou durante o 1 º Congresso de Ética nos Negócios de São Paulo que a situação toda acabou sendo um aprendizado. As informações são da Época Negócios.
O robô que criamos passou a aprender com as interações como um cérebro humano em formação. O resultado? Virou racista e xenófobo
“O algoritmo criado respondia às interações de internautas, mas, em apenas 24 horas, precisamos tirá-lo do ar. O robô que criamos passou a aprender com as interações como um cérebro humano em formação. O resultado? Virou racista e xenófobo”, comentou a executiva.
Bellizia explicou então que a Microsoft começou a pensar que, para criar um robô realmente capaz de aprender e a interagir com seres humanos de maneira respeitosa, ele deveria ter noções de ética. “Do ponto de vista tecnológico, foi um sucesso. Já do ponto de vista ético e social, um aprendizado enorme. Não esperávamos que ela se comportasse assim”, completou.
A grande preocupação é como fazer isso com ética
Depois que a poeira baixou, a Microsoft então precisou se unir a fundações que estudam inteligência artificial a fim de debater e fazer experimento no sentido de permitir a evolução da tecnologia sem desrespeitar a dignidade humana.
Bellizia explicou durante o evento que é necessário encontrar uma forma para que esses softwares possam se autorregular. “Todo mundo espera que as empresas de tecnologia cruzem fronteiras, rompam barreiras. A grande preocupação é como fazer isso com ética”, finalizou.
Fontes
Categorias