Uso de IA na gestão de pessoas: riscos de discriminação algorítmica
Embora estratégica para o RH, a ferramenta requer governança, alerta a advogada Fabiana Basso
Por Fabiana Basso*
A incorporação da inteligência artificial (IA) na gestão de pessoas deixou de ser uma tendência para se consolidar como prática presente nas organizações. Ferramentas baseadas em algoritmos já são utilizadas em recrutamento e seleção, avaliação de desempenho, análise de comportamento e até na tomada de decisões disciplinares.
Se, por um lado, essas tecnologias prometem eficiência, redução de custos e maior objetividade, por outro, trazem um risco crescente e ainda pouco compreendido: a discriminação algorítmica. A discriminação algorítmica ocorre quando sistemas automatizados produzem resultados desiguais ou injustos entre indivíduos ou grupos, muitas vezes sem transparência ou intenção explícita. Trata-se de um fenômeno diretamente ligado ao chamado “viés algorítmico”, ou seja, à tendência de modelos de IA reproduzirem distorções presentes nos dados ou em sua própria lógica de funcionamento.
No contexto da gestão de pessoas, esse risco assume especial relevância, pois impacta diretamente direitos fundamentais, como igualdade de oportunidades, dignidade e não discriminação.
No campo do recrutamento e seleção, a IA tem sido amplamente utilizada para triagem de currículos, análise de perfis e condução de entrevistas automatizadas. No entanto, estudos indicam que esses sistemas podem reproduzir padrões históricos de exclusão. Um exemplo emblemático foi o caso de um algoritmo de recrutamento que passou a favorecer candidatos homens em detrimento de mulheres, justamente por ter sido treinado com dados históricos enviesados. Esse fenômeno evidencia um ponto crítico: a IA não é neutra, ela aprende com o passado e, se não houver intervenção, tende a perpetuar desigualdades estruturais.
Além do viés de gênero, outros tipos de discriminação podem emergir, como discriminação por idade, raça, deficiência ou origem educacional. Há evidências de que sistemas automatizados podem rejeitar candidatos mais velhos, penalizar pessoas com determinadas características linguísticas ou favorecer perfis alinhados a padrões dominantes no mercado. Em processos seletivos automatizados, até mesmo erros técnicos, como falhas em reconhecimento de voz ou linguagem, podem impactar desproporcionalmente determinados grupos.
O problema se agrava pela falta de transparência desses sistemas. Muitos algoritmos operam como verdadeiras “caixas-pretas”, dificultando a compreensão dos critérios utilizados nas decisões. Isso compromete não apenas a transparência, mas também o direito de contestação por parte dos candidatos ou empregados. Em termos jurídicos, essa falta de clareza nos critérios desafia princípios clássicos do direito do trabalho e da proteção de dados, especialmente no que se refere à explicabilidade e à responsabilização.
Do ponto de vista empresarial, o risco não é apenas ético, mas também jurídico e reputacional. A utilização de ferramentas de IA que gerem impactos discriminatórios pode resultar em passivos trabalhistas relevantes, além de sanções administrativas e danos à imagem da empresa. Análises jurídicas especializadas já apontam a necessidade de estabelecer limites e condições para o uso dessas tecnologias, de forma a garantir alinhamento com os direitos fundamentais dos trabalhadores.
Outro aspecto relevante é a falsa percepção de neutralidade tecnológica. Muitas organizações adotam soluções de IA sob o argumento de eliminar vieses humanos, mas acabam substituindo um viés explícito por um viés invisível e mais difícil de identificar. A automação, nesse contexto, pode não eliminar a discriminação, apenas sofisticá-la e ampliá-la em escala.
Diante desse cenário, a governança da IA aplicada à gestão de pessoas torna-se elemento central. Empresas que pretendem utilizar essas tecnologias de forma estratégica e segura devem adotar medidas como: auditoria de algoritmos, validação de bases de dados, implementação de critérios de equidade, supervisão humana nas decisões automatizadas e políticas internas claras sobre o uso de IA. A transparência e a prestação de contas passam a ser não apenas boas práticas, mas exigências essenciais.
Além disso, é fundamental integrar a discussão da IA aos programas de compliance trabalhista e à gestão de riscos corporativos. A discriminação algorítmica deve ser tratada como um risco real e mensurável, especialmente em um contexto em que o cruzamento de dados e a automação decisória tendem a se intensificar.
Em síntese, a inteligência artificial na gestão de pessoas representa uma ferramenta poderosa, mas não isenta de riscos. A promessa de eficiência não pode se sobrepor à necessidade de justiça e equidade nas relações de trabalho. O desafio das empresas não é apenas adotar tecnologia, mas fazê-lo com responsabilidade, consciência jurídica e visão estratégica. Ignorar os riscos da discriminação algorítmica pode significar, no curto prazo, ganhos operacionais mas, no médio e longo prazo, a construção de um passivo trabalhista silencioso e potencialmente devastador.
*Fabiana Basso é advogada da Lopes & Castelo Sociedade de Advogados
Foto: Divulgação/Lopes&Castelo








