Assine nossa newsletter
Fique por dentro das novidades do RH e receba nossos conteúdos por e-mail.
Tópicos deste artigo
Primeiro artigo de uma série sobre IA, diversidade e inclusão no recrutamento. O texto mostra como modelos de linguagem podem reproduzir vieses e por que o olhar humano continua essencial nas decisões de contratação.
Pense em uma empresa que realmente investe em diversidade e inclusão, trazendo perfis diferentes que contribuem com diferentes perspectivas e novos olhares sobre antigos e novos problemas. Essa empresa só tem a ganhar, certo? Certo. A adoção de práticas de diversidade e inclusão nas organizações não é apenas uma questão de responsabilidade social: há impacto direto em performance, inovação e retenção de talentos. Afinal, equipes com maior diversidade de gênero, etnia, origem social e estilos tendem a apresentar maior criatividade, melhores decisões e maior adaptabilidade. Nesse cenário, o RH tem um papel fundamental em buscar, admitir e receber bem esses talentos. Para se ter uma ideia, uma pesquisa realizada pelo ID_BR (Instituto Identidades do Brasil) mostrou que a cada aumento de 10% na diversidade étnico-racial do quadro de colaboradores, há um aumento de 4% na produtividade. Um aumento no recorte de gênero é capaz de gerar até 5% de incremento produtivo. Ou seja, diversidade e inclusão também impactam diretamente inovação, performance e retenção de talentos.
Em paralelo, o uso de tecnologia no RH – e, aqui, estamos falando particularmente de Inteligência Artificial – vem sendo cada vez mais adotado para dar escala, rapidez e efetividade aos processos de recrutamento. Por exemplo, uma pesquisa da Society for Human Resource Management (SHRM) indica que 51% das organizações já usam IA para apoiar recrutamento. A tecnologia pode ser extremamente poderosa quando utilizada com consciência e entendimento de suas particularidades. Isso porque, apesar de seu potencial, a tecnologia traz um alerta importante: a IA, sozinha, não é capaz de solucionar todos os problemas. Estudos recentes mostram que, quando aplicada sem considerar ativamente a diversidade, ela tende a reproduzir ou até ampliar desigualdades já existentes. Em outras palavras, contar apenas com uma ferramenta de IA confiável não é suficiente para promover resultados mais diversos. É fundamental que a organização tenha diretrizes sólidas de diversidade e inclusão, e que a IA funcione sob supervisão humana, responsável por revisar, ajustar, orientar o processo de atração e triagem de candidatos e mudar de rota quando necessário.
A pesquisa Diversity and Inclusion in AI for Recruitment: Lessons from Industry Workshop, de 2024, mostra que, embora haja um interesse crescente em usar IA para promover diversidade e inclusão nas contratações, na prática é difícil transformar essa intenção em sistemas concretos e justos. Há desafios técnicos, como a construção de bancos de talentos representativos, e organizacionais, como governança interna e conscientização de lideranças.
Nesse contexto, entender como a Inteligência Artificial pode influenciar os processos de recrutamento se torna essencial para empresas que desejam construir equipes diversas e tomar decisões mais justas. Também vamos explicar o que são as LLMs (Large Language Models) e como elas funcionam na prática.
Esse olhar ajuda a ampliar o entendimento sobre processos realmente inclusivos e abre espaço para uma discussão: até que ponto a IA vai quando o assunto é diversidade.
Em novembro de 2025, um grupo de mulheres fez um experimento social no LinkedIn: elas mudaram seus perfis nas redes sociais para o gênero masculino, usando os pronomes ele/dele e uma linguagem “mais assertiva” para testar o viés de gênero no mercado do trabalho. Em publicações na rede social do mundo profissional, as participantes do experimento contaram que viram um aumento exponencial no alcance e interação de seus perfis após essa mudança. E essa constatação é corroborada por estudos: no artigo The Silicon Ceiling: Auditing GPT’s Race and Gender Biases in Hiring, de 2024, foi testada uma LLM para avaliação de currículos com nomes variando por gênero e raça. O estudo constatou que o modelo muitas vezes reproduziu estereótipos: por exemplo, currículos com nomes “femininos” ou de minorias raciais receberam avaliações piores, mesmo com as qualificações iguais.
Estudos que avaliam os vieses das LLM estão cada vez mais frequentes e tentam entender esse processo e descobrir maneiras de mitigar o problema. Em um recente, de 2025, chamado Invisible Filters: Cultural Bias in Hiring Evaluations Using Large Language Models (2025), os autores investigam como LLMs avaliam entrevistas de candidatos de diferentes contextos culturais. Eles descobriram que candidatos de determinados países ou contextos linguísticos, como quem fala inglês com sotaque ou estrutura diferente, receberam consistentemente pontuações mais baixas, mesmo com anonimato de nomes. Ou seja: o viés não está apenas em raça ou gênero, mas também em dimensão cultural e linguística. E por que isso acontece? Porque as LLMs são treinadas com textos históricos e sociais que refletem as desigualdades, estereótipos e discriminações da sociedade. Assim, a IA aprende essas relações problemáticas. Além disso, um estudo publicado na Revista Nature constata que quem projeta a IA — de desenvolvedores a grandes corporações — muitas vezes vem de grupos socialmente privilegiados, o que impacta escolhas de dados, critérios e prioridades. A falta de diversidade nas equipes de tecnologia é uma parte central desse problema.
Isso nos mostra que o problema pode ser ainda mais profundo quando o assunto é promover diversidade e inclusão com o uso de IA. A dependência de métricas de meritocracia, por exemplo, pode conflitar com metas de inclusão. Se o sistema privilegia padrões tradicionais de sucesso, como certas universidades, experiências e perfis, ele tende a excluir quem foge desse padrão. E isso reforça ainda mais a importância de um olhar humano que ajude a “filtrar os filtros” que são inerentes às ferramentas.
Mas os riscos e desafios da Inteligência Artificial no recrutamento também variam de acordo com quem desenvolve, implementa ou utiliza essas tecnologias.
Para usar IA de forma responsável, o primeiro passo é entender que não existe uma única Inteligência Artificial. Existem diferentes famílias de modelos, aplicações variadas e formas distintas de treinar e integrar a tecnologia. E, principalmente, existem diferenças enormes entre quem cria, quem customiza e quem utiliza IA no processo de recrutamento. E nesse contexto, soluções como as oferecidas pela Vagas.com tornam-se estratégicas: elas trazem tecnologia já preparada com camadas de governança, mitigação de viés, explicabilidade e compliance, permitindo que empresas menores também adotem IA de forma responsável.
Além disso, o conceito de IA+H traz o elemento humano para o centro do processo, permitindo que os critérios sejam avaliados e reavaliados a partir de dados de contratações e KPIs internos. A escolha do fornecedor é um passo fundamental para garantir que o processo seletivo seja justo, inclusivo e alinhado às melhores práticas do mercado.
Então, para entender de onde vêm as LLM, vale entender quais as empresas responsáveis pela Inteligência Artificial e qual o uso que elas fazem dela no dia a dia.
Essas geralmente são empresas com capacidade técnica, financeira e estratégica para desenvolver seus próprios modelos de linguagem. Assim, elas operam tanto como criadoras quanto como usuárias das LLMs, o que lhes dá um papel duplo: precisam inovar, mas também precisam garantir que seus modelos sejam seguros, justos e livres de vieses significativos.
Quando o assunto é diversidade e inclusão, essas empresas enfrentam desafios estruturais. Mesmo com equipes especializadas em ética, fairness e governança de IA, os modelos costumam refletir vieses presentes nos dados de treino que carregam desigualdades históricas. Embora as big techs tenham políticas sólidas e processos rigorosos de avaliação, elas ainda lidam com riscos reputacionais e regulatórios. O combate ao viés, portanto, não é apenas uma questão técnica, mas também de responsabilidade social e de liderança no setor.
O segundo grupo é formado por empresas que não desenvolvem suas próprias LLMs, mas que possuem orçamento e equipe suficientes para adquirir uma solução de ponta e integrá-la diretamente às suas operações. Elas costumam comprar ferramentas de mercado, como a plataforma Vagas.com, e as customizar, ou comprar o acesso a APIs avançadas, como o VaaS [Vagas as a Service], contratar consultorias, implementar arquiteturas dedicadas e trabalhar com dados internos em larga escala.
Essas empresas geralmente são mais rápidas na adoção, mas nem sempre na governança. E apesar de terem recursos, muitas vezes não possuem maturidade suficiente em IA para identificar de imediato os vieses embutidos no modelo ou para criar mecanismos de mitigação adequados. Como consequência, podem acabar aplicando modelos potentes sem compreendê-los totalmente, o que gera vulnerabilidades em áreas sensíveis como RH, avaliação de candidatos, comunicações internas e tomada de decisão automatizada.
Aqui, diversidade e inclusão aparecem como desafios práticos: garantir que a IA não favorece certos perfis, que respeite diferenças culturais e regionais e que não replique desigualdades. Ou seja, mais uma vez, é necessária uma intervenção humana.
A grande maioria das empresas está neste terceiro grupo: organizações que vão utilizar soluções prontas, licenciadas de fornecedores especializados, como a Vagas.com, muitas vezes focadas em casos de uso específicos, como recrutamento e seleção, triagem de currículos, avaliação comportamental ou comunicação corporativa.
Essas empresas não têm estrutura para construir IA própria nem necessidades avançadas de R&S para integrar soluções sob medida, por isso, dependem da qualidade, transparência e segurança oferecidas pelos fornecedores. Nesse contexto, diversidade e inclusão se tornam ainda mais cruciais: se a ferramenta contratada tiver vieses, a empresa usuária pode sofrer as consequências mesmo sem ter controle sobre o modelo.
A seguir, vamos compilar os riscos que precisam ser compreendidos para identificar e mitigar sistemas que carregam vieses e aumentar a diversidade e inclusão no RH.
Infelizmente, esse é um risco inevitável. As LLMs são como caixas-pretas: mesmo com acesso à arquitetura, dados e parâmetros, não é possível entender exatamente como cada decisão é tomada. Em processos como recrutamento, isso significa que não sabemos por que a IA prioriza certos candidatos. Ela pode se basear em sinais sutis, reforçar estereótipos ou interpretar fatores irrelevantes como positivos, sem revelar seu raciocínio.
Essa opacidade não é uma falha, mas uma característica estrutural dos modelos de machine learning, inclusive para as próprias big techs que os criam. Assim, todas as empresas enfrentam o mesmo risco ao usar IA e o que muda é a capacidade de mitigá-lo: quem desenvolve pode auditar profundamente, quem tem recursos pode integrar camadas de supervisão e quem só utiliza precisa escolher bons fornecedores.
Em qualquer cenário, três pilares são obrigatórios para um uso responsável da IA, especialmente quando há impacto sobre as pessoas: transparência, auditoria contínua e supervisão humana. Por isso, na Vagas.com, acreditamos que falar de Inteligência Artificial no recrutamento exige transparência: entender como a tecnologia funciona é o primeiro passo para usá-la com responsabilidade.
Modelos de IA aprendem com dados e, quando esses dados falam sobre pessoas, carregam inevitavelmente desigualdades. E, se um sistema é alimentado com históricos de contratação que são marcados por assimetrias, ele tende a reproduzir essas assimetrias como se elas fossem a norma.
Um exemplo clássico disso é o da Amazon, que aconteceu em 2018. Ao treinar um modelo de recrutamento com currículos em sua maioria masculinos, a empresa acabou criando um sistema que penalizava termos associados a mulheres, entendendo que os candidatos preferíveis eram os homens. O projeto foi abandonado, mas a moral da história é simples: startups tech e big techs podem criar modelos mais éticos, mas não estão imunes aos vieses; empresas com mais recursos podem integrar e ajustar melhor suas soluções; e empresas usuárias precisam fazer as perguntas essenciais aos fornecedores como quais dados treinaram o modelo, como os vieses são mitigados e se a ferramenta já passou por auditoria.
O sistema é tão “inteligente” que, mesmo quando não tem acesso direto a informações como raça, gênero ou idade, consegue “descobrir” esses atributos por meio de pistas indiretas: universidade, endereço, tempo de carreira, padrões de escrita ou tipos de experiência mais comuns a determinados grupos favorecidos. Estudos mostram que sistemas de triagem automática podem favorecer homens e pessoas brancas mesmo quando essas variáveis são removidas dos dados. Isso acontece porque a IA aprende padrões, inclusive desigualdades ocultas, e é extremamente eficiente em encontrar caminhos indiretos para chegar às mesmas conclusões. Não adianta simplesmente esconder características demográficas da IA, porque ela encontra correlações. Por isso, o design dos sistemas precisa ser ético, intencional e, mais uma vez, acompanhado de supervisão humana.
Quando uma empresa usa IA sem checkpoints humanos, dois riscos surgem imediatamente: erros passam despercebidos e vieses acabam sendo potencializados. A supervisão humana é, portanto, uma parte essencial da governança. E não estamos falando de qualquer tipo de supervisão, mas sim daquela feita por pessoas treinadas para interpretar as saídas da IA, capazes de explicar decisões, revisar métricas e resultados e combinar inteligência artificial com inteligência humana. Por isso, como empresa usuária, é imprescindível escolher fornecedores que ofereçam supervisão humana integrada desde o início.
Sabemos — e acreditamos profundamente nisso — que a IA abre oportunidades importantes: agiliza tarefas, padroniza processos, organiza informações e devolve ao RH o que ele faz de melhor, que é olhar para pessoas. Mas a tecnologia não está acima nem fora da sociedade, ela aprende conosco e, junto com nossas capacidades, recebe também nossos vieses. Por isso, não existe IA sem vieses. O que existe é IA usada com consciência, supervisão e responsabilidade. Conhecer esses riscos é o primeiro passo para não fantasiar sobre a tecnologia, não delegar demais e não reproduzir desigualdades. Afinal, decisões de recrutamento não são apenas decisões técnicas — são decisões que impactam trajetórias profissionais e o futuro das organizações. E, acima de tudo, para construir processos seletivos mais humanos, justos e inclusivos.
Esse artigo faz parte de uma série semanal que busca entender o papel da IA na diversidade e inclusão no RH, mostrando os riscos e apontando caminhos para mitigar os vieses. Na próxima semana, vamos entender quais as boas práticas para promover inclusão real no recrutamento com IA.
Categorias
Perfil executor: saiba tudo sobre esse profissional
O profissional com perfil executor tende a ser mais crítico e gostar de assumir (muitas...
O que é, como funciona e quais as vantagens do recrutamento misto
Um bom recrutamento e seleção é um dos principais pilares para o sucesso de uma...
Saiba como avaliar a inteligência emocional dos candidatos
No mundo corporativo contemporâneo, a inteligência emocional emerge como um diferencial de soft skill (habilidade...