Reconhecimento facial e inteligência artificial são temas que têm andado de mãos dadas, seja pelo aprimoramento do primeiro com base no avanço tecnológico do segundo ou, ainda, pelas (muitas) polêmicas.

A Rússia, por exemplo, queria usar um sistema próprio de reconhecimento facial na identificação de alunos, o que gerou, claro, muita discórdia por trás dos possíveis motivos. Mesma polêmica envolveu o Metrô de São Paulo. Empresas como Amazon e IBM anunciaram recentemente uma interrupção nas pesquisas e no uso desses recursos. Cidades também estão dando um passo atrás, como a americana Boston, reconhecida por suas instituições tecnológicas de ponta.

Grande parte das polêmicas envolve desde a falta de clareza na utilização dos recursos até mesmo um uso falho, tendencioso ou criminoso no manuseio dos dados gerados na captação facial com reconhecimento avançado.

Um dos exemplos que já estão se tornando clássicos é o algoritmo racista, ou seja, plataformas que fazem uso de algoritmos com vieses estereotipados que levam consigo sobrecargas de informações prontas para “dispararem” contra pessoas negras, por exemplo. Em grande parte o racismo não está no algoritmo em si, mas sim na forma com que foi construída sua base de inteligência artificial, com uma aplicação através de “bancos de dados viciados”.

Bancos de dados viciados são compilados estruturais de dados direcionados a formalizarem um determinado ponto de vista já pré estipulado. Por exemplo: se inserimos 5 mil imagens de homens com barba, todos brancos e de olhos escuros, a máquina fará seu aprendizado como se em uma determinada localidade todos os rostos são de homens brancos e de olhos escuros. Um rosto sem barba ou apenas de bigode poderia ser apontado pelo algoritmo como “fora de contexto”.

Quando aplicamos um banco de dados com centenas de milhares de imagens de homens negros como autores de crimes e associamos essa estrutura de dados a registros policiais, o que temos é um apontamento artificial de que rostos negros devem ser apontados pelo algoritmo como autores de crimes, pois a máquina foi “ensinada” a enxergar um determinado viés.

Quem quiser ler e entender um pouco mais sobre os temas inteligência artificial, algoritmo racista e reconhecimento facial, vale muito a pena conferir a publicação do Titl, no UOL, que aborda de uma maneira super pontual essa temática. Também vale a indicação do pesquisador Tarcísio Silva que sempre aborda tal tema em sua página.

Em seguida, quatro vídeos selecionados sobre o tema. O primeiro, no TED, a então estudante do MIT, Joy Buolamwini. No segundo, Joy volta a falar brilhantemente sobre o tema na Bloomberg Equality Summit, em New York. No terceiro, a estudante volta no Vision & Justice, da Harvard University, ao lado da Latanya Sweeney e Darren Walker para debater raça, tecnologia e viés algorítmico. Por fim, Kevin Slavin explica como os algoritmos estão moldando nosso mundo.