• IA
  • Recrutamento e Seleção

IA trabalhando a favor da diversidade: boas práticas na hora de contratar de forma inclusiva

  • avatar Vagas For Business

    Vagas For Business

  • 8 de abr 2026 às 16:44
  • 7 min de leitura
Diversidade de pessoas

Tópicos deste artigo

No segundo artigo da nossa série sobre diversidade, mostramos como usar Inteligência Artificial no recrutamento para reduzir vieses e promover diversidade nas contratações. O texto reúne pesquisas, percepções de profissionais de RH e boas práticas para aplicar IA com supervisão humana, tornando os processos seletivos mais justos, transparentes e eficientes.

Entender como a Inteligência Artificial funciona é essencial para utilizá-la a favor da diversidade e inclusão nos processos de contratação. Por isso, a Vagas.com está publicando uma série de artigos que pretende discutir de forma transparente o uso de IA aplicada ao recrutamento e seleção. Afinal, por aqui entendemos o impacto que empresas diversas têm tanto na sociedade quanto nos resultados das próprias organizações. Estimular processos mais justos é uma forma concreta de promover transformações em que todos ganham.

No artigo anterior (https://blog-forbusiness.vagas.com.br/vieses-inteligencia-artificial-recrutamento/), vimos que diversidade e inclusão não são apenas pautas sociais, mas fatores ligados diretamente à performance, inovação e baixa rotatividade de talentos, e que os Recursos Humanos ocupam um papel central nessa equação. Ao mesmo tempo em que a Inteligência Artificial vem sendo amplamente adotada para dar escala e agilidade ao recrutamento, estudos indicam que a tecnologia, quando usada sem intenção e governança, tende a reproduzir ou até ampliar desigualdades já existentes. Ou seja: a IA pode ser uma aliada poderosa, mas não resolve sozinha os desafios da inclusão.

No texto, ao explicar como funcionam as LLMs (Large Language Models), conseguimos ver que esses modelos são treinados com dados históricos e sociais carregados de vieses humanos. Pesquisas recentes demonstram que sistemas de IA aplicados ao recrutamento podem penalizar candidatos por gênero, raça, origem cultural ou forma de comunicação, mesmo quando as qualificações são equivalentes. Além disso, a falta de diversidade nas equipes que desenvolvem essas tecnologias influencia decisões de design, critérios de avaliação e prioridades, aprofundando riscos de exclusão e reforço de estereótipos.

O artigo também destacou que os riscos variam conforme o tipo de empresa que cria, customiza ou utiliza IA: das big techs às empresas que licenciam ferramentas prontas. Em todos os casos, porém, alguns desafios são comuns: a falta de transparência das LLMs, dados de treinamento enviesados, discriminação indireta e o uso da tecnologia sem supervisão humana. A principal conclusão é clara: não existe IA neutra ou sem vieses. O que existe é o uso consciente da tecnologia, apoiado por auditoria, governança e, sobretudo, pelo olhar humano do RH como elemento indispensável para processos seletivos mais justos e inclusivos. Ou seja: a IA hoje em dia é, sim, uma aliada poderosa na contratação. Mas o olhar humano continua sendo indispensável para promover a diversidade real — aquela que fortalece a moral da empresa, dos times e contribui para a construção de uma sociedade mais igualitária.

Depois do artigo que jogou luz sobre os vieses que atravessam as LLMs, queremos trazer a boa notícia: existem, sim, práticas que mitigam os vieses da Inteligência Artificial e trazem mais justiça para os processos de contratação. No texto a seguir, vamos entender quais essas práticas, como elas podem ser adotadas e a diferença real que elas fazem para empresas que seguem por esse caminho.


O que pesquisas e empresas de tecnologia já aprenderam sobre vieses em IA

Os estudos que comprovam os vieses da Inteligência Artificial se multiplicam e algumas empresas de tecnologia já assumem publicamente que a neutralidade algorítmica é um mito e que o caminho mais responsável é trabalhar ativamente para identificar, medir e mitigar vieses. Um exemplo frequentemente citado em estudos sobre boas práticas é o da Microsoft, que nos últimos anos publicou pesquisas e frameworks internos sobre Responsible AI, aplicáveis inclusive a soluções de recrutamento.

Em estudos conduzidos por times da empresa, a Microsoft mostrou que avaliar modelos apenas por performance técnica não é suficiente. Métricas clássicas como velocidade ou eficiência de contratações precisam ser acompanhadas de métricas de equidade, impacto diferencial entre grupos e monitoramento contínuo após a implementação. Um dos aprendizados centrais desses estudos é que o viés não surge apenas no treinamento, mas também na forma como a IA é integrada aos processos, nos critérios de sucesso definidos e nas decisões tomadas a partir de suas recomendações.

Essa noção conversa com pesquisas acadêmicas e institucionais mais amplas. Uma revisão sistemática publicada em 2025 sobre fairness in AI-driven recruitment mostrou que organizações que obtêm melhores resultados em diversidade são aquelas que tratam a IA como parte de um sistema sociotécnico, e não como uma solução isolada. Em outras palavras: não basta ligar a IA e deixar ela operar sozinha, pelo contrário: também é preciso redesenhar processos continuamente, capacitar pessoas e assumir responsabilidade pelas decisões finais — justamente o que a Microsoft tem feito depois de entender os vieses da Inteligência Artificial.


O que o RH tem dito sobre o assunto – uma pesquisa de campo

Os profissionais de recursos humanos capacitados para o uso de IA também já entenderam que existem riscos no uso dessas ferramentas sem uma supervisão apurada. Pesquisas quantitativas com profissionais do setor reforçam essa visão. Levantamentos conduzidos pela SHRM (Society for Human Resource Management) indicam que, embora mais da metade das organizações já utilize IA em alguma etapa do recrutamento (atualmente esse número gira em torno de 51%), a maioria dos líderes de RH ainda vê a tecnologia como uma ferramenta de apoio, e não de substituição da decisão humana, especialmente quando o assunto é diversidade e inclusão.

Em um desses estudos, profissionais de RH relataram que os maiores riscos percebidos no uso de IA para contratação são a dificuldade de explicar decisões para candidatos – o que faz com que muitos candidatos se sintam injustiçados em processos que utilizam IA. Isso ajuda a explicar por que surgem tantos cursos prometendo “driblar” ferramentas de recrutamento consideradas difíceis de superar. Além disso, existe o receio de reforçar desigualdades históricas, o risco da dependência excessiva de critérios automatizados e a falta de clareza de como os fornecedores treinam e auditam seus modelos.

Ao mesmo tempo, os dados mostram que empresas que adotam práticas de governança, auditoria e supervisão humana relatam maior confiança no uso da IA, além de melhores indicadores de diversidade ao longo do tempo.

Isso aponta para um consenso que vem se consolidando: a pergunta deixou de ser sobre usar ou não usar a IA e passou a ser sobre como usar.


Boas práticas para reduzir vieses no uso de IA no recrutamento

A seguir, reunimos uma série de boas práticas a partir de estudos, guias institucionais, pesquisas com RH e experiências de mercado. São princípios aplicáveis especialmente a empresas que contratam soluções de IA de mercado para seus processos — sejam as que as customizam ou não. 

Definir claramente o papel da IA no processo seletivo

Antes mesmo de escolher uma ferramenta, é fundamental responder: para que exatamente essa IA será usada? Triagem inicial? Organização de candidaturas? Apoio à análise de perfil? Estudos mostram que quanto mais decisões são delegadas à IA, maior o risco de viés não detectado. Empresas mais maduras usam a IA para apoiar decisões e não para substituí-las.

Alinhar métricas de negócio com métricas de diversidade

Muitos vieses não surgem por intenção de discriminação, mas por desalinhamento de objetivos. Se o sucesso da IA é medido apenas por velocidade de contratação ou redução de custos, ela tende a privilegiar padrões já consolidados. Estudos mostram que incluir indicadores de diversidade, representatividade e equidade como critérios explícitos muda significativamente os resultados ao longo do tempo.

Exigir transparência mínima dos fornecedores

Mesmo sabendo que LLMs são modelos de baixa explicabilidade, é legítimo – e necessário – perguntar: que tipo de dados treinou esse sistema? Há testes de viés documentados? Existe auditoria externa ou interna? Há monitoramento contínuo após a implementação? Empresas que fazem essas perguntas reduzem riscos jurídicos, reputacionais e humanos.

Diversificar e contextualizar os dados

Estudos mostram que simplesmente “aumentar a diversidade” do banco de talentos não resolve o problema se os dados continuam refletindo desigualdades estruturais. Boas práticas incluem reponderar esses dados, fazer testes comparativos entre grupos e análises de impacto antes e depois da implementação. Isso vale especialmente para dados históricos utilizados nos processos de contratação.

Estruturar a supervisão humana

Para a supervisão humana ser eficaz, as pessoas envolvidas precisam ter repertório para questionar a IA. Por isso, é indispensável treinar recrutadores e lideranças para entender limitações, interpretar resultados e reconhecer sinais de viés. Supervisão não é olhar por cima os dados, mas sim participar ativamente do processo de decisão.

Fazer auditorias contínuas

Muita gente faz a auditoria da IA apenas no momento da contratação da ferramenta. Estudos recentes mostram que os modelos podem se degradar ou se enviesar ao longo do tempo, conforme mudam os dados de entrada ou o próprio contexto social. Boas práticas incluem revisões periódicas, análises de disparidade e ajustes constantes.

Incluir também é se comunicar claramente com os candidatos

Guias internacionais de boas práticas, como o do governo do Reino Unido, destacam a importância de informar candidatos quando a IA é usada, para quais etapas ela será utilizada e com quais limites a empresa trabalha. A transparência aumenta a confiança – tão sensível hoje em dia – e diminui a sensação de injustiça dos processos, fortalecendo também a reputação da empresa empregadora.

É justamente nesse ponto que surge uma nova geração de soluções de recrutamento: tecnologias pensadas desde o início para operar com supervisão humana e governança.


Quando tecnologia e decisão humana trabalham juntas

É nesse ponto que entra a tecnologia de IA+H, criada pela Vagas.com e única no mercado. Seu conceito parte de um entendimento fundamental, que também guiou esta série de artigos sobre vieses das LLMs: a tecnologia deve potencializar o olhar humano, e não substituí-lo. Em vez de delegar decisões sensíveis exclusivamente à IA, o modelo do IA+H integra inteligência artificial com critérios definidos por humanos, como objetivos reais de diversidade.

Na prática, isso significa usar a IA para organizar, sugerir, apoiar e analisar dados, tudo isso enquanto o RH mantém o protagonismo na hora de definir critérios, na revisão de resultados e na tomada de decisão final. Esse modelo conversa de forma direta com as recomendações dos principais estudos internacionais sobre recrutamento responsável, que apontam a combinação entre tecnologia e envolvimento humano como o caminho mais seguro e eficaz na hora de fazer contratações justas e valorizar a diversidade e a inclusão dentro das empresas.

Ao oferecer soluções com camadas de governança, mitigação de viés, explicabilidade e supervisão humana integrada, a Vagas.com possibilita que empresas de diferentes portes usem IA de forma consciente, sem romantizar a tecnologia nem ignorar seus riscos. O resultado não é apenas um processo seletivo mais eficiente, mas mais justo, mais humano e mais alinhado com a diversidade que as empresas realmente estão dispostas a construir.

No fim das contas, a principal boa prática talvez seja esta: não tratar a IA como uma promessa mágica, mas sim como uma ferramenta poderosa que exige responsabilidade proporcional ao impacto que gera. Quando usada com intenção, método e olhar humano, ela deixa de ser um risco e passa a ser uma aliada real na construção de um mercado de trabalho mais inclusivo.

Assine nossa newsletter

Fique por dentro das novidades do RH e receba nossos conteúdos por e-mail.

Uma nova experiência está chegando.

Todos os conteúdos da Vagas.com, para candidatos e empresas, em um só lugar. Aguarde!!