A jornalista e escritora Wendy Reid Crisp disse uma vez que já era difícil os seres humanos serem educados uns com os outros, imagine com uma secretária eletrônica. Décadas depois, a Apple foi pega reescrevendo os padrões da Siri para que a assistente virtual desse aos humanos respostas neutras a perguntas que, no mínimo, geram reações acaloradas, como questões de gênero, feminismo, racismo e política.
Para a presidente-executiva da Fawcett Society e defensora dos direitos das mulheres, Sam Smether, “o problema com as assistentes pessoais é que elas foram projetadas por homens, com um padrão masculino em mente. Se a Siri e outras IA acreditam em igualdade, são feministas.”
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
As assistentes de outras empresas realmente o são: enquanto a do Google responde "Acredito firmemente em igualdade, então definitivamente me considero feminista", a Alexa, da Amazon, diz que "Sim, sou feminista, conforme definido por ...” e emenda uma série de fontes.
Mas até que ponto pode-se cobrar opiniões de um aplicativo baseado em inteligência artificial? E o quanto podemos tentar extrair alguma da Siri, por exemplo? O jornalista Carlos Affonso, titular da coluna TecFront do Tilt (site do portal UOL), entrevistou a assistente do seu iPhone, perguntando sobre religião, política, sentido da vida e sentimentos, entre outros assuntos. Nas questões principais (nazismo, racismo, igualdade social e direito das mulheres) Siri saiu pela tangente com a mesma resposta: “É sua opinião que conta.”
As outras, porém, foram de satisfatórias a inusitadas. Confira.
1. Espiritualidade:
2. Política
3. Sentimentos
Fontes
Categorias