* Por Milena Mendes Grado
É certo que a inteligência artificial fará parte do cotidiano dos departamentos de recursos humanos em curto prazo. No entanto, uma questão crucial precisa ser resolvida: garantir que o algoritmo seja justo e livre de preconceitos.
Em uma das suas experiências, a gigante Amazon descobriu que o algoritmo que estava sendo testado pela empresa tinha uma preferência por profissionais do sexo masculino, currículos com a presença da palavra mulher eram pior avaliados.
Acredita-se que isso ocorreu porque o algoritmo da companhia utilizou como base os dados da experiência de seleção e contratação dos últimos 10 (dez) anos da própria empresa, o que acabou por revelar que os processos na Amazon estavam contaminados por vieses e preconceitos, ainda que inconscientes.
É exatamente por essa razão que as principais violações podem ocorrer. Isso porque a inteligência artificial interpreta os dados inseridos no sistema e se os dados estão eivados de vieses e preconceitos, é consequência natural que essa interpretação também esteja.
O professor Christo Wilson da Northeastern University em palestra realizada na Universidade de Harvard analisou algoritmos de ferramentas de busca de currículos buscando identificar exatamente vieses e preconceitos. A pesquisa, a princípio, afastou essa ocorrência. Porém, o professor se posicionou sobre como corrigir eventuais problemas.
Deixar de solicitar dados que identifiquem a pessoa pode não ser suficiente, uma vez que as bases podem estar contaminadas. Diante disso, o ideal é que seja feita uma correção ativa no algoritmo.
Ocorre que para fazer essas correções é possível que seja necessário solicitar dados adicionais dos usuários do sistema – dados ainda mais sensíveis. Por essa perspectiva, há de se considerar uma segunda questão, que é a legislação de proteção de dados, a qual exige consentimento para a finalidade específica de utilização. Logo, correções desse tipo exigem cautelas extras.
No caso da Amazon, foi adotada essa providência, no entanto não há garantias que o sistema não volte a cometer falhas, razão pela qual é interessante que os sistemas passem constantemente por auditorias voltadas a identificação de violações de direitos.