O ano era 2019 e um agente do Departamento de Segurança Interna dos Estados Unidos recebeu um imagem crítica para ser analisada. Um homem branco aparentemente registrada em imagens abusos contra uma criança. A imagem não era nítida e havia dificuldade em identificar o criminoso.

O próximo passo foi repassar a imagem a outros colegas federais para auxiliá-lo. Um deles, de Nova Iorque, fez uso de um recente recurso de uma startup que trabalha com desenvolvimento de softwares para reconhecimento facial, a Clearview AI. A diferença dessa startup para outros programas de reconhecimento facial é que ela não se baseia apenas nas fotografias oficias das delegacias ou órgãos de segurança, mas também toma como fonte as mídias sociais: Facebook, Youtube, Instagram. Tudo.

Mais de 3 bilhões de imagens de americanos foram capitaneadas pela startup. De uma foto granulada foi fácil chegar em uma fotografia no Instagram de uma homem musculoso e asiático. Mas o criminoso não era branco? Pois é, ao fundo da imagem do musculoso junto com sua musa fitness havia uma loja de suplementos. Nela, foi identificado um rosto menor do que o tamanho de meia unha. Um homem branco com as características da foto original recebida pelo agente do Departamento de Segurança Interna. Em um click, descobriu-se nome, sobrenome e sua conta no Facebook. Mais alguns passos no programa e foram encontradas fotos nas mídias sociais do sujeito que batiam com o quarto identificado na imagem original.

Essa é a extensa reportagem trazida pelo New York Times que se debruça em detalhes de como mesmo possuindo uma causa justa (capturar um criminoso sexual) o uso de reconhecimento facial pode potencialmente violar leis e princípios. Não há forma clara de como as imagens são obtidas, se são consentidas ou onde de fato essas imagens vão parar. Quem as usa? Quem as contrata? A coisa é mais complexa do que imaginamos. De fato, como traz o título da reportagem, seu rosto não é mais seu.

Vale muito conferir o trabalho do jornalista Kashmir Hill: Your face ir not your own.