A discriminação algorítmica na seleção ao emprego

Carla Reita Faria Leal

Antonio Raul Alencar

Resultado da adoção de técnicas de inteligência artificial, como a aprendizagem de máquina, a discriminação algorítmica ou digital, conforme apontam os pesquisadores Natália Criado e José M. Such, é uma forma de discriminação na qual decisões tomadas por algoritmos tratam usuários de forma injusta, antiética, ou, de algum modo, diferenciada, sem que essa diferença se justifique, em razão de seus dados pessoais, como: nível de renda, educação, idade, gênero e outras características , sejam elas sensíveis ou não.

Isso acontece, pois, cada vez mais, a tomada de decisões em diversas áreas estratégicas da vida humana, como as finanças, os serviços e o próprio acesso ao mercado de trabalho, é transferida para máquinas sofisticadas. Os sistemas automatizados de elegibilidade, os algoritmos de classificação e os modelos de risco preditivos são utilizados com frequência cada vez maior para decidir aspectos importantes de nossas vidas, como, por exemplo, quem obtém um financiamento ou quem será selecionado para uma determinada vaga de emprego.

Para se ter uma compreensão melhor do problema, podemos citar o caso da empresa Amazon que, em 2018, teve sua ferramenta de seleção de pessoal apontada como discriminatória. O sistema de seleção, construído a partir de técnicas de machine learning – ou aprendizado de máquina –, detectou que nos últimos 10 anos a empresa havia contratado um número muito maior de homens do que de mulheres para seus postos de trabalho. Com essa informação, o algoritmo estabeleceu um padrão de contração e passou a preferir a seleção de homens para a ocupação das vagas abertas, em relação a mulheres, em um claro viés sexista.

Outro exemplo bastante claro desses casos foi apontado por pesquisadores de universidade e instituto de pesquisa norte-americanos que, em 2015, verificaram uma espécie de direcionamento na publicidade relativa a vagas de empregos na web. O estudo demonstrou que anúncios com vagas de maior remuneração apareciam com maior frequência para usuários do gênero masculino, enquanto as vagas de menor remuneração eram exibidas com mais assiduidade aos perfis femininos.

Além disso, talvez o exemplo mais crítico a ser analisado diga respeito a um teste de personalidade aplicado por diversas empresas nos EUA que se assemelhava a um teste médico-psicológico e sinalizava pessoas que sofriam de algum transtorno mental, ainda que essas pessoas estivessem em acompanhamento e tratamento médico efetivo, tais indivíduos eram excluídos dos processos seletivos, e por conseguinte, do mercado de trabalho.

Nesse sentido, é importante observar que o trabalhador na prestação laboral não busca apenas um meio de subsistir, mas também a realização nas áreas pessoal, profissional e social, o que é obstado a esses candidatos em razão da prática discriminatória.

O problema abordado, emergente da modernidade, encontra alguma tutela normativa na Lei Geral de Proteção de Dados que veda o tratamento discriminatório de dados pessoais, como com as informações relacionadas nos currículos dos candidatos. Em consonância, a Lei n.º 9.029/1995 proíbe a adoção de qualquer prática discriminatória e limitativa para efeito de acesso à relação de trabalho ou de sua manutenção.

Tais leis, a nosso ver, podem ser invocadas para coibir práticas discriminatórias automatizadas, cujo potencial ofensivo é maximizado em razão do tratamento massivo de informação.

Diante desse cenário, e considerando que as ferramentas de seleção automatizadas já representam, segundo estudiosos, um negócio de 500 milhões de dólares anuais, tendente a crescer de 10 a 15% ao ano, a discriminação algorítmica é uma questão que tende a se tornar mais frequente, demandando vigilância e aprimoramento dos mecanismos de fiscalização, orientação e monitoramento no que se refere ao tratamento de dados do candidato ao emprego.

Isso somente é possível através do estímulo a práticas de governança, especialmente da transparência ativa e passiva, e da prestação de contas aos acionistas e à sociedade, evitando que os algoritmos se tornem verdadeiras caixas pretas, perpetuadoras de desigualdades históricas.

Carla Reita Faria Leal e Antonio Raul Alencar são membros do Grupo de Pesquisa sobre meio ambiente de trabalho da UFMT, o GPMAT.

 

Use este espaço apenas para a comunicação de erros





Aceito que meu nome seja creditado em possíveis erratas.

1 COMENTÁRIO

DEIXE SEU COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Artigo anteriorApós acusação de propina, fiscais cobram R$ 50 mil de Abílio na Justiça
Próximo artigoDicas para evitar erros em uma reforma