HOME > blog

Promessas e perigos do uso de IA para contratação: proteja-se contra o viés de dados
14 de maio de 2025

Promessas e perigos do uso de IA para contratação: proteja-se contra o viés de dados

Embora a IA na contratação seja amplamente usada para escrever descrições de cargos, selecionar candidatos e automatizar entrevistas, ela representa um risco de ampla discriminação se não for implementada com cuidado.

Keith Sonderling, Comissário, Comissão de Igualdade de Oportunidades dos EUA

Essa foi a mensagem de Keith Sonderling, Comissário da Comissão para a Igualdade de Oportunidades dos EUA, falando na Governo Mundial de IA evento realizado ao vivo e virtualmente em Alexandria, Virgínia, na semana passada. Sonderling é responsável por fazer cumprir as leis federais que proíbem a discriminação contra candidatos a emprego por causa de raça, cor, religião, sexo, nacionalidade, idade ou deficiência.

“O pensamento de que a IA se tornaria popular nos departamentos de RH era mais próximo da ficção científica há dois anos, mas a pandemia acelerou a taxa em que a IA está sendo usada pelos empregadores”, disse ele. “O recrutamento virtual agora veio para ficar.”

É um momento movimentado para profissionais de RH. “A grande demissão está levando à grande recontratação, e a IA desempenhará um papel nisso como nunca vimos antes”, disse Sonderling.

A IA tem sido empregada há anos na contratação — “Não aconteceu da noite para o dia.” — para tarefas que incluem conversar com inscrições, prever se um candidato aceitaria o emprego, projetar que tipo de funcionário eles seriam e mapear oportunidades de requalificação e requalificação. “Em suma, a IA agora está tomando todas as decisões que antes eram tomadas pelo pessoal de RH”, o que ele não caracterizou como bom ou ruim.

“Cuidadosamente projetada e usada adequadamente, a IA tem o potencial de tornar o ambiente de trabalho mais justo”, disse Sonderling. “Mas implementada descuidadamente, a IA pode discriminar em uma escala que nunca vimos antes por um profissional de RH.”

Conjuntos de dados de treinamento para modelos de IA usados ​​para contratação precisam refletir a diversidade

Isso ocorre porque os modelos de IA dependem de dados de treinamento. Se a força de trabalho atual da empresa for usada como base para treinamento, “ela replicará o status quo. Se for um gênero ou uma raça principalmente, ela replicará isso”, disse ele. Por outro lado, a IA pode ajudar a mitigar os riscos de preconceito de contratação por raça, origem étnica ou status de deficiência. “Quero ver a IA melhorar a discriminação no local de trabalho”, disse ele.

A Amazon começou a construir um aplicativo de contratação em 2014 e descobriu com o tempo que discriminava mulheres em suas recomendações, porque o modelo de IA foi treinado em um conjunto de dados do próprio registro de contratação da empresa nos 10 anos anteriores, que era principalmente de homens. Os desenvolvedores da Amazon tentaram corrigir isso, mas acabaram descartando o sistema em 2017.

O Facebook concordou recentemente em pagar US$ 14,25 milhões para resolver ações civis do governo dos EUA de que a empresa de mídia social discriminou trabalhadores americanos e violou as regras federais de recrutamento, de acordo com um relato do Reuters. O caso centrou-se no uso pelo Facebook do que chamou de programa PERM para certificação de trabalho. O governo descobriu que o Facebook se recusou a contratar trabalhadores americanos para empregos que tinham sido reservados para portadores de visto temporário sob o programa PERM.

“Excluir pessoas do pool de contratação é uma violação”, disse Sonderling. Se o programa de IA “retém a existência da oportunidade de emprego para essa classe, para que eles não possam exercer seus direitos, ou se ele rebaixa uma classe protegida, isso está dentro do nosso domínio”, disse ele.

As avaliações de emprego, que se tornaram mais comuns após a Segunda Guerra Mundial, forneceram alto valor aos gerentes de RH e, com a ajuda da IA, têm o potencial de minimizar o viés na contratação. “Ao mesmo tempo, elas são vulneráveis ​​a alegações de discriminação, então os empregadores precisam ser cuidadosos e não podem adotar uma abordagem passiva”, disse Sonderling. “Dados imprecisos amplificarão o viés na tomada de decisões. Os empregadores devem estar vigilantes contra resultados discriminatórios.”

Ele recomendou pesquisar soluções de fornecedores que analisam dados quanto a riscos de preconceito com base em raça, sexo e outros fatores.

Um exemplo é de ContrateVue de South Jordan, Utah, que construiu uma plataforma de contratação baseada nas Diretrizes Uniformes da Comissão de Igualdade de Oportunidades dos EUA, projetada especificamente para mitigar práticas de contratação injustas, de acordo com um relato de todo o trabalho.

Uma publicação sobre princípios éticos de IA em seu site afirma em parte: “Como a HireVue usa tecnologia de IA em nossos produtos, trabalhamos ativamente para evitar a introdução ou propagação de preconceito contra qualquer grupo ou indivíduo. Continuaremos a revisar cuidadosamente os conjuntos de dados que usamos em nosso trabalho e garantir que sejam tão precisos e diversos quanto possível. Também continuamos a aprimorar nossas habilidades para monitorar, detectar e mitigar preconceitos. Nós nos esforçamos para construir equipes de diversas origens com diversos conhecimentos, experiências e perspectivas para melhor representar as pessoas que nossos sistemas atendem.”

Além disso, “Nossos cientistas de dados e psicólogos de IO criam algoritmos de avaliação HireVue de uma forma que remove dados da consideração pelo algoritmo que contribuem para o impacto adverso sem impactar significativamente a precisão preditiva da avaliação. O resultado é uma avaliação altamente válida e com viés mitigado que ajuda a aprimorar a tomada de decisão humana enquanto promove ativamente a diversidade e a igualdade de oportunidades, independentemente de gênero, etnia, idade ou status de deficiência.”

Dr. Ed Ikeguchi, CEO, AiCure

A questão do viés em conjuntos de dados usados ​​para treinar modelos de IA não se limita à contratação. O Dr. Ed Ikeguchi, CEO da AiCure, uma empresa de análise de IA que trabalha na indústria de ciências biológicas, declarou em um relato recente em Notícias de TI em SaúdeA IA é tão forte quanto os dados que ela alimenta, e ultimamente a credibilidade desse backbone de dados está sendo cada vez mais questionada. Os desenvolvedores de IA de hoje não têm acesso a conjuntos de dados grandes e diversos nos quais treinar e validar novas ferramentas.”

Ele acrescentou: “Eles frequentemente precisam alavancar conjuntos de dados de código aberto, mas muitos deles foram treinados usando voluntários programadores de computador, que são uma população predominantemente branca. Como os algoritmos são frequentemente treinados em amostras de dados de origem única com diversidade limitada, quando aplicados em cenários do mundo real a uma população mais ampla de diferentes raças, gêneros, idades e mais, a tecnologia que parecia altamente precisa na pesquisa pode se mostrar pouco confiável.”

Além disso, “É preciso haver um elemento de governança e revisão por pares para todos os algoritmos, pois mesmo o algoritmo mais sólido e testado está fadado a ter resultados inesperados. Um algoritmo nunca termina de aprenderdeve ser constantemente desenvolvido e alimentado com mais dados para melhorar.”

E, “Como indústria, precisamos nos tornar mais céticos em relação às conclusões da IA ​​e encorajar a transparência na indústria. As empresas devem responder prontamente a perguntas básicas, como ‘Como o algoritmo foi treinado? Com ​​base em que ele tirou essa conclusão?”

Esse artigo é uma releitura de: www.aitrends.com

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Primeiros passos

com inteligência artificial, para compreender conceitos e utilização pratica no dia a dia com foco no marketing da sua empresa e relacionamento social!