Leis estaduais de IA nos EUA entram em vigor — e a Casa Branca quer barrá-las
-
Lucas Ferreira - 15 Jan, 2026
Cinco estados americanos — Califórnia, Texas, Colorado, Nova York e Illinois — ativaram leis de regulação de IA em 1º de janeiro de 2026. As regras cobrem desde transparência em modelos de fronteira até discriminação algorítmica em contratações. Mas antes que a tinta secasse, a Casa Branca já havia assinado uma ordem executiva para criar um framework federal único — que pode invalidar tudo isso. O resultado é um dos embates regulatórios mais complexos que a indústria de tecnologia já enfrentou.
O que as leis estaduais exigem
Cada estado atacou um ângulo diferente. A Califórnia aprovou o Transparency in Frontier Artificial Intelligence Act, que exige que empresas divulguem dados de treinamento, riscos conhecidos e capacidades de modelos de fronteira. O Texas criou o Responsible Artificial Intelligence Governance Act, focado em accountability para uso de IA em decisões que afetam cidadãos.
Colorado e Illinois miraram na discriminação algorítmica, especialmente em processos de contratação e crédito. Nova York expandiu regras que já existiam para ferramentas de RH automatizadas.
Na prática, uma empresa que opera nos cinco estados precisa cumprir cinco conjuntos de regras diferentes. Para uma startup com 20 funcionários, isso é um pesadelo jurídico. Para uma big tech, é um custo operacional que reforça a vantagem de escala.
A ordem executiva de Trump
Em 11 de dezembro de 2025, Trump assinou uma ordem executiva propondo um framework federal para IA que pretende preempt — ou seja, anular — leis estaduais consideradas “inconsistentes” com a política federal. A ordem dá dois prazos concretos:
A FTC tem até 11 de março de 2026 para publicar como o FTC Act se aplica a IA. O Secretário de Comércio tem o mesmo prazo para avaliar quais leis estaduais são “excessivamente onerosas” para a indústria.
O argumento da Casa Branca é simples: regulação fragmentada atrapalha a inovação e prejudica a competitividade americana frente à China. O contra-argumento dos estados é igualmente direto: sem regulação local, quem protege os cidadãos?
É a mesma tensão federalismo vs centralização que os EUA enfrentam em dezenas de outras áreas. Mas em IA, o timing importa. Modelos estão sendo deployados em ritmo acelerado. Cada mês sem regras claras é um mês de danos potenciais sem remédio.
Casos concretos: xAI, Alaska e Wisconsin
Enquanto legisladores debatem frameworks, a realidade já está testando os limites. Em 16 de janeiro, o procurador-geral da Califórnia exigiu que a xAI, de Elon Musk, parasse de gerar deepfakes não consensuais pelo Grok. A base legal: leis de proteção ao consumidor e privacidade que já existiam antes das novas regulações de IA.
No Alasca, o sistema judiciário recuou em um projeto experimental de chatbot para auxiliar litigantes que se representam sozinhos. O motivo: o chatbot “alucinava” fatos jurídicos. Um assistente de IA que inventa leis não ajuda ninguém — prejudica quem mais precisa de acesso à justiça.
Wisconsin foi por outro caminho. Legisladores propuseram penalidades criminais específicas para golpes com deepfakes — roubo de identidade, fraude financeira e extorsão via conteúdo sintético. É uma abordagem pragmática: em vez de regular a tecnologia, regular o crime que ela possibilita.
O paralelo com o EU AI Act
Do outro lado do Atlântico, a Europa segue seu próprio caminho. O EU AI Act completou um ano de proibição de práticas consideradas inaceitáveis (como scoring social) em fevereiro de 2026, e a Comissão Europeia está revisando se a lista de práticas banidas precisa ser expandida.
A diferença de abordagem é marcante. A Europa optou por uma lei única para todo o bloco, com classificação de risco. Os EUA estão presos entre 50 estados legislando sozinhos e um governo federal tentando centralizar sem consenso bipartidário.
A Finlândia se tornou o primeiro país da UE com poderes nacionais de fiscalização totalmente operacionais em janeiro. Outros devem seguir ao longo do primeiro trimestre. O recado é claro: a Europa não está só legislando — está fiscalizando.
O que muda para quem constrói com IA
Para empresas de IA, o cenário de curto prazo é confuso. Cumprir as leis estaduais custa caro, mas ignorá-las é arriscado. Esperar a regra federal pode significar anos — a ordem executiva de Trump é uma diretriz, não uma lei aprovada pelo Congresso.
A minha leitura é que a fragmentação regulatória americana é, paradoxalmente, boa para as big techs. Google, Meta e OpenAI têm departamentos jurídicos que lidam com cinco leis estaduais sem pestanejar. Quem sofre é o concorrente menor, o laboratório de pesquisa, a startup de três fundadores.
Se a intenção real fosse proteger a inovação, a ordem executiva estabeleceria um piso de proteção ao cidadão com regras claras e simples. Em vez disso, o que temos é uma promessa vaga de “avaliar” leis estaduais, sem garantia de que algo melhor virá no lugar.
Regulação de IA não é um problema técnico. É um problema político. E os EUA, no momento, estão tratando como um problema de relações públicas.