Imagine ter sua personalidade copiada por uma inteligência artificial que pode se comportar como você. Essa foi a ideia que cientistas da Universidade de Stanford e profissionais do Google DeepMind tiveram ao conduzir um experimento com mais de 1.000 pessoas dispostas a que sua personalidade e ideias se tornassem 'agentes de simulação'.
A pesquisa reuniu 1.052 participantes para responder uma entrevista de cerca de 2 horas com diversos temas, incluindo pensamentos a respeito de problemas sociais e até mesmo sobre suas histórias de vida. Todo esse material foi gravado e usado para gerar agentes de simulação, ou seja, uma espécie de “cópia digital” do comportamento dessas pessoas.
Então, os agentes foram submetidos a uma série de novos testes para serem comparados com suas contrapartes humanas. As pessoas, por sua vez, refizeram o teste 15 dias depois, e os resultados foram comparados com os agentes de simulação, gerando uma acuracidade de 85% no nível das respostas.
Implicações éticas e morais
De acordo com o responsável pela pesquisa, PhD em Ciência da Computação na Universidade de Stanford, a ideia das simulações com esses agentes é facilitar e dar mais liberdade aos pesquisadores durante a condução de experimentos. Ao coletar todos esses dados e fazer com que a IA consiga imitar parte dos pensamentos e personalidade humana, é mais fácil realizar os estudos, já que não é necessário selecionar pessoas.
No entanto, esse tipo de conduta gera dilemas éticos no fazer da ciência, uma vez que os dados passados pelos agentes são apenas partes da personalidade humana simulada em um meio digital. Como o nível de precisão nos testes não é de 100%, embora seja alto, há a probabilidade dessas personas digitais tomarem decisões que um humano normalmente não tomaria, seja para o bem ou para mal.
A simulação de personalidades também pode acarretar outros problemas, como melhorias em sistemas para deepfakes, que podem utilizar as respostas humanas para criar imagens e vídeos cada vez mais realistas e difíceis de serem detectados.
Fontes
Categorias