Recursos que advém de tecnologias que empregam inteligência artificial ou aprendizado de máquina, por exemplo, requerem em sua essência uma enxurrada de dados tanto em sua formatação como para sua própria execução. Tais dados muitas vezes estão alocados em bancos de dados já constituídos ou em constante alimentação. Mas quem toma conta da “criação” desses dados?
É exatamente nesse ponto que o Instituto de Referência em Internet e Sociedade (IRIS) toca. Ao se utilizar bancos de dados já estruturados por aqueles que tem voz (geralmente uma elite branca masculina) acabamos por contribuir para que se perpetue discriminações e marginalizações, como o racismo algorítmico.
Sistemas alimentados por dados construídos e constituídos com vieses racistas, sexistas e preconceituosos tendem a projetar que os recursos oferecidos pela inteligência artificial e aprendizado de máquina apenas reproduzam tais comportamentos.
O artigo do IRIS traz alguns exemplos importantes de como o uso de dados enviesados tendem a reproduzir posicionamentos que apenas reforçam aquilo que já não pode ser suportado: exclusões e discriminações contra mulheres.
Vale muito a pena conferir o post completo e refletir sobre o tema.
+ links
- Sobre machismo e inteligência artificial;
- Inteligência artificial do sistema de recrutamento da Amazon discrimina mulheres;
- Siri e Alexa: a inteligência artificial é machista;
- Inteligência Artificial apresenta traços racistas e machistas;
- Robôs femininas sofrem com ofensas machistas, cantadas e até pedido de nude.