Tenho perguntas inspiradas no recente escândalo de recrutamento na Amazônia, onde foram acusadas de discriminação contra mulheres em seu processo de recrutamento. Mais informações aqui :
Os especialistas em aprendizado de máquina da Amazon.com descobriram um grande problema: seu novo mecanismo de recrutamento não gostava de mulheres.
A equipe tinha vindo a construir programas de computador desde 2014 para revisão candidatos a emprego recomeça com o objetivo de mecanizar a busca de melhores talentos ...
... ferramenta de contratação experimental da empresa usado inteligência artificial para dar trabalho candidatos pontuação variando de uma a cinco estrelas ...
... Mas em 2015, a empresa percebeu que seu novo sistema não estava classificando candidatos para trabalhos de desenvolvedor de software e outros cargos técnicos de maneira neutra em termos de gênero.
Isso ocorre porque os modelos de computador da Amazon foram treinados para examinar os candidatos, observando padrões nos currículos enviados à empresa por um período de 10 anos. A maioria veio de homens, um reflexo do domínio masculino em toda a indústria de tecnologia. (Para um gráfico sobre a discriminação de gênero na tecnologia, consulte: aqui ) Na verdade, o sistema da Amazon ensinou a si mesmo que os candidatos masculinos eram preferíveis. Ele penalizou currículos que incluíam a palavra "mulheres", como em "capitã do clube de xadrez feminino". E rebaixou os graduados de duas faculdades exclusivamente femininas, de acordo com pessoas familiarizadas com o assunto. Eles não especificaram os nomes das escolas.
A Amazon editou os programas para torná-los neutros a esses termos específicos. Mas isso não garante que as máquinas não planejem outras maneiras de classificar os candidatos que possam ser discriminatórios, disseram as pessoas.
A empresa de Seattle acabou por dissolver a equipe no início do ano passado porque os executivos perderam a esperança para o projeto ...
... O experimento da empresa ... oferece um estudo de caso sobre as limitações do aprendizado de máquina.
... cientistas da computação como Nihar Shah, que ensina aprendizado de máquina na Universidade Carnegie Mellon, dizem que ainda há muito trabalho a fazer.
"Como garantir que o algoritmo seja justo, como garantir que o algoritmo seja realmente interpretável e explicável - isso ainda está muito distante", disse ele.LÍNGUA MASCULINA
[Amazon] montou uma equipe no centro de engenharia da Amazon em Edimburgo que cresceu para cerca de uma dúzia de pessoas. Seu objetivo era desenvolver uma IA que pudesse rastrear rapidamente a web e identificar candidatos que valessem a pena recrutar, disseram as pessoas familiarizadas com o assunto.
O grupo criou 500 modelos de computadores focados em funções e locais específicos do trabalho. Eles ensinaram cada um a reconhecer cerca de 50.000 termos que apareceram nos currículos dos candidatos anteriores. Os algoritmos aprenderam a atribuir pouco significado às habilidades comuns entre os candidatos de TI, como a capacidade de escrever vários códigos de computador ...
Em vez disso, a tecnologia favoreceu candidatos que se descreviam usando verbos mais comumente encontrados nos currículos de engenheiros do sexo masculino, como "executado" e "capturado", disse uma pessoa.
Digamos que eu queira criar um modelo estatístico para prever alguma saída de dados pessoais, como um ranking de cinco estrelas para ajudar a recrutar novas pessoas. Digamos que eu também queira evitar a discriminação de gênero, como uma restrição ética. Dado dois perfis estritamente iguais, além do gênero, a saída do modelo deve ser a mesma.
Devo usar o gênero (ou qualquer dado correlacionado a ele) como uma entrada e tentar corrigir seus efeitos, ou evitar usar esses dados?
Como verifico a ausência de discriminação contra o gênero?
Como corrijo meu modelo para dados que são estatisticamente discriminantes, mas não quero ser por razões éticas?