O The New York Times publicou no domingo (21) uma história que ilustra como pesquisas feitas por grandes empresas em busca de imagens de abuso sexual infantil (CSAM) podem acabar resultando em invasões inesperadas de arquivos privados de usuários. No relato, o Google suspendeu a conta de um cidadão de São Francisco que enviou imagens de seu filho para diagnóstico médico.
Em fevereiro de 2021, depois de notar que o pênis de seu filho pequeno parecia inchado, o pai (que pediu para ser identificado apenas como Mark) marcou uma teleconsulta para a manhã do dia seguinte, pois não queria expor a criança à pandemia. Para que o médico pudesse se inteirar do problema, a enfermeira pediu que ele enviasse fotos da região afetada.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Sem atentar que as Big Techs veem tudo, a esposa de Mark pediu que ele colocasse a mão na virilha do filho para exibir melhor o inchaço e enviou algumas dessas fotos, através de seu iPhone, para o sistema de mensagens do profissional de saúde. O filho foi curado com antibióticos, mas o pai acabou se tornando alvo de uma investigação policial.
Como o Google procedeu com as fotos médicas da criança?
Fonte: geralt/Pixabay/Reprodução.Fonte: geralt/Pixabay
Tão logo as fotos que exibiam o pênis do filho de Mark subiram para a nuvem, o sistema do Google as identificou como CSAM. Dois dias depois, todas as contas do pai zeloso foram desativadas, inclusive o Gmail e o Google Fi, a operadora móvel da gigante de Moutain View. Sem e-mail nem celular, Mark ficou sabendo por outros meios que havia sido banido por distribuir "conteúdo nocivo".
Em dezembro de 2021, Mark foi inocentado de todas as suspeitas. O Google, no entanto, continua se recusando a restabelecer a conta de Mark. Segundo a Big Tech, sua tecnologia de hash e IA identificou o usuário de acordo com a definição de CSAM da lei americana.
Fontes
Categorias