Um fato que chamou a atenção foi acerca da gigante azul. A IBM anunciou que não irá mais desenvolver e pesquisar tecnologias de reconhecimento facil e vigilância em massa ou qualquer outro recurso que viole direitos humanos, liberdades e os princípios da empresa.

Talvez esteja na hora de (re) pensarmos de um modo um tanto quanto crítico a tecnologia. Não a criticidade em torno da ferramenta em si, mas na forma como ela é utilizada e, sobretudo, construída.

Apesar dos significativos avanços, a tecnologia de reconhecimento facial ainda toca em questões delicadas e não resolvidas como transparência no desenvolvimento, formas de aplicação ou regulamentação deficiente, gerando inúmeros debates sérios, sobretudo quando empresas privadas dominam o setor e, sabe-se lá onde e como, utiliza tais recursos e tecnologias.

Quando temos tal posicionamento vindo de uma gigante americana da tecnologia temos uma chance de refletirmos de uma maneira uma pouco mais cautelosa sobre os vieses envolvidos no desenvolvimento de recursos que envolvam inteligência artificial.

Não dá pra abraçar sem antes questionar, como muito tem feito. É preciso um ohar mais denso sobre tudo o que está acontencendo, já que o racismo, por exemplo, pode estar muito mais enraizado na tecnologia do que a gente imagina, inclusve no dia a dia doméstico.

Aliás, e por falar em racismo, um dos pontos mais delicados envolvendo reconhecimento facil e inteligência artificial é justamente o viés racista do algoritmo, como apresentado pela Joy Buolamwini para o TED e para a Wired.

+ links