IA em recrutamento: Illinois, Colorado e NYC já exigem compliance — e o Brasil está atrasado

IA em recrutamento: Illinois, Colorado e NYC já exigem compliance — e o Brasil está atrasado

O primeiro acordo judicial por discriminação algorítmica em contratação nos EUA custou US$ 365 mil. Não foi um caso de negligência extrema — foi uma empresa usando uma ferramenta de screening de currículos que penalizava candidatas mulheres para vagas técnicas. O sistema aprendeu com dados históricos de contratação onde 80% dos contratados eram homens. O algoritmo reproduziu o viés como se fosse um critério de qualidade. Três estados americanos olharam para esse tipo de caso e decidiram que autorregulação não basta. Illinois, Colorado e Nova York já têm leis em vigor que exigem compliance específico para IA em recrutamento. O Brasil, que discute o PL 2338 e já tem a LGPD, ainda não chegou nesse nível de especificidade — e deveria.

O que forçou a mão dos legisladores

O catálogo de falhas é documentado. A Amazon descontinuou em 2018 um sistema interno de triagem de currículos depois de descobrir que penalizava sistematicamente currículos que continham a palavra “women’s” — como em “women’s chess club captain”. A HireVue, plataforma de entrevistas em vídeo por IA usada por mais de 700 empresas globais, enfrentou queixas formais da ACLU em 2025 por supostamente produzir avaliações piores para candidatos surdos e falantes de variações linguísticas minoritárias. Pesquisadores do MIT demonstraram que sistemas comerciais de análise facial têm taxas de erro até 34% maiores para mulheres de pele escura em comparação com homens brancos.

O ponto não é que toda IA em recrutamento é enviesada. O ponto é que, sem auditoria independente, ninguém sabe se está ou não. E quando o viés existe, ele opera em escala — milhares de candidatos filtrados por critérios que nenhum gestor humano aprovou conscientemente.

O mapa de compliance: três jurisdições, três abordagens

Cada legislação atacou o problema por um ângulo diferente, mas todas convergem em princípios comuns: transparência, auditoria e direito do candidato.

Illinois — AI Video Interview Act (em vigor desde janeiro de 2026). A lei mais direta das três. Qualquer empregador que use IA para analisar entrevistas em vídeo precisa: notificar o candidato antes da entrevista que IA será usada na avaliação; obter consentimento explícito; garantir que um revisor humano assista ao vídeo — não apenas leia o score do algoritmo; e informar o resultado da revisão humana em até 10 dias úteis. O candidato pode pedir a destruição dos dados de vídeo a qualquer momento. Penalidade: até US$ 5 mil por violação, com direito de ação privada. Nos primeiros 30 dias de enforcement, 37 processos foram protocolados.

NYC — Local Law 144 (em vigor desde julho de 2023, enforcement reforçado em 2026). A lei de Nova York foi pioneira ao exigir bias audit anual por terceiro independente para qualquer “automated employment decision tool” (AEDT) usada em contratação ou promoção. Os resultados do audit devem ser publicados no site do empregador. O candidato deve ser notificado ao menos 10 dias antes do uso da ferramenta. Uma auditoria do Comptroller de NY em dezembro de 2025 revelou que a fiscalização era frouxa — 75% das reclamações via 311 foram mal encaminhadas, e auditores independentes identificaram 17 violações potenciais onde o órgão regulador havia encontrado apenas uma. O DCWP comprometeu-se a intensificar investigações em 2026.

Colorado — AI Act (enforcement previsto para junho de 2026, em revisão). A lei mais abrangente das três, aplicável a qualquer “high-risk AI system” que tome decisões consequenciais sobre pessoas. No contexto de emprego, exige: impact assessment por escrito antes do deploy, atualizado anualmente; notificação ao candidato quando IA é usada em decisão sobre ele; explicação em linguagem clara se a decisão for adversa; e direito de apelar com revisão humana. Um grupo de trabalho estadual propôs em março de 2026 substituir a exigência de bias audit por um framework de transparência — a versão final está em definição. Penalidade: até US$ 20 mil por violação, enforcement exclusivo do Attorney General.

O que isso significa para empresas brasileiras

A leitura imediata é que leis estaduais americanas não se aplicam a operações no Brasil. A leitura correta é mais complexa.

Qualquer empresa brasileira que contrate nos EUA — via subsidiária, operação direta ou até freelancers em Nova York, Illinois ou Colorado — já está sujeita a essas leis. Multinacionais brasileiras com operações americanas precisam auditar agora se suas ferramentas de ATS, screening de currículo ou entrevista por vídeo estão em compliance. O risco não é regulatório apenas: é de class action. Escritórios americanos de litigância trabalhista já catalogam casos de discriminação algorítmica como a próxima fronteira de ações coletivas.

O custo de compliance não é trivial, mas é gerenciável. Um bias audit por terceiro independente custa entre US$ 50 mil e US$ 200 mil por sistema, dependendo da complexidade. A remediação — quando viés é encontrado — pode ultrapassar US$ 100 mil. Para uma empresa que contrata centenas de pessoas por ano usando IA, o custo de não auditar é exponencialmente maior: litígios, dano reputacional e perda de talento.

O gap brasileiro: LGPD existe, especificidade não

O Brasil tem dois instrumentos relevantes, mas nenhum é suficiente sozinho.

LGPD, Artigo 20. O titular de dados tem direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado que afetem seus interesses — incluindo perfil profissional. O controlador deve fornecer informações claras sobre os critérios e procedimentos utilizados, respeitando segredos comerciais. Na teoria, um candidato rejeitado por IA pode pedir explicação. Na prática, quase ninguém sabe que esse direito existe, e a ANPD não publicou regulamentação específica para o contexto de emprego.

PL 2338 (Marco Legal de IA). O projeto classifica sistemas de IA usados em “seleção de candidatos” como alto risco, o que implicaria obrigações de transparência, documentação e supervisão humana. O problema: a votação foi adiada e o texto ainda está em análise na Câmara. Mesmo quando aprovado, faltam elementos que as leis americanas já implementaram — notadamente a exigência de bias audit periódico por terceiro independente e a publicação obrigatória dos resultados.

O gap concreto. Nenhuma norma brasileira em vigor exige auditoria de viés algorítmico em ferramentas de recrutamento. Nenhuma exige que o resultado da auditoria seja público. Nenhuma define metodologia ou frequência. Empresas que queiram se posicionar à frente da regulação — e proteger-se juridicamente — precisam agir sem esperar o legislador.

O que o EU AI Act já definiu (e o Brasil deveria observar)

O Regulamento Europeu de IA classifica explicitamente sistemas de IA usados em recrutamento, triagem de candidatos e decisões sobre promoção, demissão e alocação de tarefas como alto risco (Anexo III, ponto 4). Isso exige conformity assessment, registro em base de dados europeia, e monitoramento contínuo de viés. O enforcement começa em agosto de 2026. O Brasil, que historicamente se inspira no modelo europeu para legislação de dados (a LGPD seguiu o GDPR), deveria adotar o mesmo nível de especificidade para IA em emprego.

Cinco ações para quem usa IA em recrutamento hoje

A recomendação aqui é direta: não espere regulação para fazer o que já é defensável.

  1. Mapeie todas as ferramentas de IA no pipeline de contratação. ATS com ranking automatizado, screening de currículo, análise de vídeo, testes de personalidade algorítmicos. Se um fornecedor diz que “usa IA”, peça documentação técnica sobre como decisões são geradas.

  2. Exija do fornecedor um relatório de bias audit. Pergunte: quando foi a última auditoria independente? Quais categorias protegidas foram testadas (gênero, raça, idade, deficiência)? O relatório é público? Se o fornecedor não tem resposta, isso é um risco que o General Counsel precisa avaliar.

  3. Implemente notificação ao candidato. Mesmo sem obrigação legal no Brasil, informar que IA é usada no processo seletivo é uma prática que reduz risco de litígio sob a LGPD (princípio da transparência) e posiciona a empresa como referência em governança.

  4. Garanta mecanismo de revisão humana. O Artigo 20 da LGPD já prevê o direito de revisão. Tenha um processo documentado para quando o candidato solicitar. Defina quem revisa, em que prazo e como a decisão humana interage com a recomendação algorítmica.

  5. Conduza uma avaliação de impacto algorítmico voluntária. Mesmo sem exigência legal, uma impact assessment documentada demonstra diligência. Use como referência o NIST AI RMF ou a ISO 42001. O documento protege a empresa em caso de questionamento judicial ou regulatório.

O que perguntar ao fornecedor antes de contratar

Três perguntas que todo CHRO ou General Counsel deveria fazer a qualquer fornecedor de ferramenta de IA para recrutamento:

  • “Seu sistema passou por bias audit independente nos últimos 12 meses? Por qual empresa?” Se a resposta for não, ou se o audit foi interno, o fornecedor não está no padrão exigido por NYC ou Colorado.
  • “Quais dados de treinamento alimentam o modelo? Como vocês testam para viés em categorias protegidas?” Respostas vagas sobre “dados proprietários” sem menção a testes específicos são red flag.
  • “O candidato pode solicitar explicação sobre por que foi rejeitado pelo sistema? Como vocês suportam esse fluxo?” Se o fornecedor não tem resposta, a empresa que contrata o serviço herda o risco.

O cenário em movimento

O contexto regulatório americano está longe de estável. O “One Big Beautiful Bill Act” tentou impor uma moratória de 10 anos sobre leis estaduais de IA — incluindo as de emprego. O Senado rejeitou a proposta por 99 a 1. As leis estaduais continuam em vigor e novas estão surgindo: California SB 7 e Texas HB 149 entram em vigor ainda em 2026, ambas com proibições explícitas de discriminação por IA em contextos de emprego.

No Brasil, o PL 2338 é a melhor oportunidade para criar um framework específico. A recomendação para quem tem acesso ao processo legislativo é clara: incluir exigência de bias audit periódico e independente para sistemas de IA em recrutamento, com publicação obrigatória dos resultados. Não como sugestão — como obrigação legal.

Para quem lidera empresas que já usam IA em contratação, a mensagem é pragmática: o compliance de amanhã é construído com as decisões de hoje. Auditar agora custa menos do que remediar depois. E o primeiro processo por discriminação algorítmica no Brasil não é questão de se, mas de quando.