Sob a promessa de eficiência e neutralidade, a Inteligência Artificial (IA) avança sobre decisões importantes, desde a aprovação de um empréstimo até a chance de conseguir um emprego. Empresas brasileiras, em busca de otimização, abraçam essa tecnologia: segundo o Gartner, mais de 60% das grandes corporações já a utilizam em seus processos de recrutamento e gestão de talentos. No entanto, por trás da fachada de imparcialidade, esconde-se um risco potencial: o de um preconceito invisível, codificado e automatizado.
O viés em sistemas de IA não nasce de uma má intenção, é um reflexo direto das informações que os alimentam. Algoritmos aprendem a partir de dados históricos e, se eles estão impregnados pelos preconceitos estruturais da nossa sociedade, a IA não apenas os reproduzirá, mas os ampliará em uma escala industrial. É um espelho que não só reflete, mas distorce e amplifica nossas piores falhas.
Esses preconceitos se manifestam de formas sutis e devastadoras. Um estudo da Universidade de São Paulo (USP) alerta que algoritmos tendem a favorecer candidatos com nomes associados a grupos historicamente privilegiados. O caso da Amazon, nos Estados Unidos, que precisou descontinuar seu sistema de recrutamento ao descobrir que ele penalizava currículos com a palavra “feminino”, é um exemplo emblemático. O software, treinado com dados de uma década de contratações majoritariamente masculinas, aprendeu a ser machista.
No Brasil, a realidade não é diferente. Uma pesquisa da FGV revelou que 57% das empresas brasileiras admitem sofrer com o viés de dados, e 61% de seus executivos temem danos à reputação. São sistemas que excluem pessoas por sotaques, faculdade ou até mesmo pelo bairro onde moram. Critérios ocultos que, como aponta a pesquisa da USP, reduzem a diversidade e desumanizam os processos seletivos.
Como mitigar os riscos
As consequências desse viés são as piores possíveis. Para o indivíduo, é a negação de oportunidades de emprego, crédito e crescimento profissional com base em marcadores de identidade.
Já para as empresas, além do risco iminente de processos e multas, há a perda de talentos. A marca que se vende como moderna e inclusiva pode ser desmascarada como uma organização que utiliza “robôs preconceituosos”, um dano de imagem quase irreparável.
O Ministério Público do Trabalho (MPT), em um denso relatório de 2022, já destacava a discriminação algorítmica como um dos principais riscos da IA nas relações de trabalho, ao lado da violação de direitos fundamentais. E a questão não é se a discriminação acontece, mas como podemos combatê-la. Mitigar esses riscos exige um esforço consciente e multifacetado, como:
●Auditoria e transparência: Realizar auditorias constantes nos algoritmos para identificar e corrigir vieses. As empresas devem ser capazes de explicar por que uma decisão foi tomada.
●Diversidade nos dados e nas equipes: Garantir que os dados de treinamento sejam representativos da diversidade da população. Equipes de desenvolvimento plurais são capazes de identificar preconceitos inconscientes.
●Supervisão humana: Manter um ser humano no ciclo de decisões críticas, especialmente naquelas que podem ter um impacto significativo na vida das pessoas. A tecnologia deve ser uma ferramenta de apoio, não o juiz final.
A Inteligência Artificial é uma ferramenta muito útil, mas não resolve todos os problemas de uma vez só. Se não formos proativos na construção de uma IA ética e justa, corremos o risco de criar um futuro onde a discriminação não é apenas um ato humano, mas um sistema automatizado, impessoal e implacável. E essa é uma falha que não poderemos simplesmente deletar.
*por João Roncati, CEO da People+Strategy – consultoria brasileira reconhecida e respeitada por seu trabalho estratégico com a alta liderança de grandes companhias. Mais informações no site.

