Usar inteligência artificial para escolher funcionário pode não ser o fim do mundo
A inteligência artificial promete transformar as contratações de pessoal em uma utopia de imparcialidade.
Há certamente bastante espaço para melhora. As indicações de funcionários, um processo que tende a deixar grupos sub-representados de fora, ainda representam uma boa parcela das contratações das empresas.
Além disso, os recrutadores e gerentes de contratação levam seus próprios preconceitos ao processo, apontaram os estudos, muitas vezes escolhendo pessoas com nomes e formação educacional que "soam corretos".
As empresas carecem de diversidade racial e de gênero em vários setores e o número de pessoas sub-representadas diminui nos escalões mais elevados da hierarquia corporativa.
Menos de 5% dos CEOs das empresas da Fortune 500 são mulheres -- e há apenas três CEOs negros. A diversidade racial entre os conselhos da Fortune 500 é quase tão desanimadora quanto, já que quatro dos cinco novos nomeados para os conselhos em 2016 eram brancos.
A identificação de candidatos de alto potencial é muito subjetiva. As pessoas escolhem quem gostam com base em preconceitos inconscientes
Alan Todd, CEO da CorpU, uma plataforma tecnológica para desenvolvimento de liderança
Os defensores da IA argumentam que a tecnologia é capaz de eliminar alguns desses preconceitos. Em vez de confiar a tomada de decisões sobre contratações aos sentimentos das pessoas, empresas como Entelo e Stella.ai usam o aprendizado de máquina para detectar as habilidades necessárias para determinados trabalhos.
A IA, então, escolhe candidatos com essas habilidades para as vagas abertas. As empresas afirmam que não apenas encontram candidatos melhores, mas também identificam os que não haviam sido reconhecidos no processo tradicional.
O algoritmo da Stella.ai avalia candidatos apenas com base em habilidades, por exemplo, disse o fundador Rich Joffe.
"O algoritmo só tem permissão para fazer combinações com base nos dados que pedimos que observe. Ele tem permissão de avaliar só as habilidades, só os setores, só os níveis das empresas." Isso limita os preconceitos, disse.
A Entelo anunciou hoje o Unbiased Sourcing Mode, uma ferramenta que torna as contratações ainda mais anônimas. O software permite que os recrutadores ocultem nomes, fotos, universidade, períodos de inatividade e marcadores de idade do candidato e além disso substitui pronomes que especificam gênero -- tudo com o objetivo de reduzir diversas formas de discriminação.
A tomada de decisões dos humanos é muito ruim
Solon Borocas, professor assistente do departamento de ciência da informação da Cornell, que estuda a equidade no aprendizado de máquina
Mas não devemos superestimar a neutralidade da tecnologia, advertiu.
A pesquisa de Borocas concluiu que o uso do aprendizado de máquina em contratações, a exemplo do reconhecimento facial, pode resultar em uma discriminação não intencional.
Os algoritmos carregam preconceitos implícitos daqueles que o programaram. Ou podem mostrar tendência a favorecer certas qualidades e habilidades exibidas de forma predominante em um determinado conjunto de dados.
"Se os exemplos usados para treinar o sistema não incluem determinados tipos de pessoas, o modelo desenvolvido pode ser muito ruim para avaliação dessas pessoas", explicou Borocas.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.