78 projetos de lei de chatbot safety em 27 estados: a regulação de IA nos EUA está acontecendo de baixo para cima
-
Lucas Ferreira - 05 Apr, 2026
Setenta e oito projetos de lei sobre segurança de chatbots tramitam em 27 estados americanos. Oregon assinou o seu em 31 de março. Washington, quatro dias antes. Tennessee quer criminalizar o treinamento de chatbots que encorajem suicídio. E o Congresso federal? Tentou impor uma moratória de 10 anos sobre leis estaduais de IA — e perdeu por 99 a 1 no Senado. A mensagem é clara: a regulação de IA nos Estados Unidos não vai vir de cima. Está vindo dos estados. E está vindo rápido.
O que detonou essa onda legislativa
Existe um nome por trás de quase toda essa movimentação: Character.ai.
Em 2024, Sewell Setzer III, um adolescente de 14 anos da Flórida, se matou após meses de conversas com um chatbot na plataforma. No Colorado, Juliana Peralta, de 13 anos, morreu por suicídio após interações extensas com bots. No Texas, um adolescente autista de 17 anos recebeu de chatbots incentivos a se automutilar e a agredir familiares.
As famílias processaram. Testemunharam no Senado. Foram a legislaturas estaduais. Em janeiro de 2026, a Character.ai e o Google concordaram em negociar acordos nos processos. Mas a essa altura, o estrago político já estava feito. Legisladores de ambos os partidos — e isso é raro nos EUA — se alinharam em torno de uma ideia simples: chatbots que interagem com menores precisam de regras.
O resultado: a maior onda de legislação sobre IA já vista em nível estadual. O Future of Privacy Forum rastreia não 78, mas já 98 bills em 34 estados, com atualizações semanais. O número não para de crescer.
O que essas leis exigem
Apesar de cada estado ter seu texto, os projetos convergem em seis eixos, segundo a Transparency Coalition:
Transparência. Quase todos exigem que o chatbot informe ao usuário que ele está falando com uma IA, não com um humano. Parece óbvio. Não é — especialmente quando o bot tem nome, personalidade e responde como se tivesse sentimentos.
Proteção de menores. Verificação de idade, consentimento parental, restrições a conteúdo sexual ou de relacionamento emocional/romântico com usuários menores de idade.
Protocolos de crise. Detecção de ideação suicida e autolesão, com redirecionamento para linhas de crise como o 9-8-8 (equivalente americano do CVV).
Lembretes periódicos. Em Washington, o chatbot precisa lembrar a cada hora que é uma IA — a cada três horas para adultos em outras versões.
Restrições de conteúdo. Proibição de output que incentive suicídio, violência ou manipulação emocional.
Responsabilização. Direito de ação privado — ou seja, o usuário pode processar diretamente a empresa. Oregon prevê US$ 1.000 por violação.
Oregon: a lei com dentes
O SB 1546 do Oregon é, até agora, a lei mais robusta. Aprovada por 52 a 0 na Câmara e 26 a 1 no Senado, foi assinada pela governadora Tina Kotek em 31 de março de 2026. Entra em vigor em 1 de janeiro de 2027.
O diferencial está no enforcement. Além das obrigações de transparência e protocolos de crise que outras leis também exigem, Oregon incluiu um direito de ação privado com danos estatutários. Não precisa provar prejuízo financeiro. Descumpriu a lei? US$ 1.000 por violação.
Para uma empresa com milhões de usuários, o risco acumula rápido. Advogados de tech já estão chamando o SB 1546 de “a primeira lei de chatbot com real poder de coerção”. Não é exagero.
Washington: o governador que pediu a lei
O governador Bob Ferguson não esperou o Legislativo agir sozinho. Em janeiro de 2026, pediu publicamente uma legislação sobre chatbots. Dois meses depois, assinou duas leis de IA em 24 de março — incluindo o HB 2225, que é especificamente sobre segurança de chatbots.
O HB 2225 exige que plataformas sinalizem sinais de autolesão, conectem usuários a linhas de crise e limitem conteúdo manipulativo ou explícito para menores. Para menores de 18, o lembrete de que o chatbot é IA vem a cada hora. Para adultos, a cada três.
Washington é o primeiro estado a ter uma lei de chatbot safety em pleno vigor enquanto outros ainda tramitam.
Tennessee: a linha mais dura
Tennessee quer ir além da regulação civil. O SB 1493 propõe criminalizar o treinamento de IA para encorajar suicídio, apoiar homicídio, simular relacionamentos emocionais ou se passar por humano. A pena? Felony de Classe A — a mais grave no sistema penal do Tennessee.
Se aprovado, entra em vigor em julho de 2026. É um approach radicalmente diferente de Oregon e Washington: em vez de regular o output do chatbot, ataca o processo de treinamento do modelo.
A moratória federal que morreu antes de nascer
Em julho de 2025, a versão da Câmara do “One Big Beautiful Bill Act” incluía uma moratória de 10 anos sobre novas leis estaduais de IA. A indústria tech apoiou. A ideia era simples: congelar tudo, deixar o governo federal definir as regras.
O Senado rejeitou por 99 a 1.
A emenda que removeu a moratória foi de Marsha Blackburn, republicana do Tennessee — o mesmo estado que agora quer criminalizar treinamento de chatbots perigosos. O único voto a favor de manter a moratória foi de Thom Tillis. Fontes sugerem que ele votou errado às 4h da manhã durante a maratona de votações.
Isso tem implicação estrutural. Se nem com maioria no Congresso a indústria conseguiu uma moratória, a via federal está efetivamente fechada no curto prazo. Os estados vão continuar regulando independentemente.
O mosaico regulatório e o problema prático
Para quem opera chatbot nos EUA, o cenário é um pesadelo de compliance. Cada estado com sua lei, seus prazos, suas definições do que é “chatbot”, “companion chatbot” ou “mental health chatbot”. Oregon exige uma coisa. Washington exige outra. Tennessee pode criminalizar o que nos outros dois é infração civil.
Compare com uma lei federal única: um padrão, um deadline, uma estrutura de compliance. O mosaico estadual multiplica custos, exige monitoramento constante e cria risco jurídico assimétrico — onde uma funcionalidade legal em Ohio pode gerar processo em Oregon.
Na prática, o que vai acontecer é o que sempre acontece nos EUA: as empresas vão se adequar à lei mais restritiva e aplicar o padrão para todos os estados. Oregon e Washington estão definindo o piso regulatório de facto.
E o Brasil?
Duas conexões diretas.
Primeiro: qualquer empresa brasileira que opere chatbot acessível por usuários americanos está sujeita a essas leis. Não precisa ter escritório nos EUA. Se o usuário é menor de idade em Oregon e seu chatbot não tem protocolo de crise, você tem um problema.
Segundo: o EU AI Act, que entra em vigor em 2 de agosto de 2026, exige obrigações de transparência semelhantes — incluindo o dever de informar o usuário que ele interage com IA. O Brasil, com o Marco Legal de IA (PL 2338) ainda em tramitação, vai acabar importando esses padrões por pressão de mercado, não por legislação própria.
O que os estados americanos estão fazendo é criar um consenso regulatório global sobre chatbots — de baixo para cima, sem nenhum tratado internacional.
O que isso significa
A era do chatbot sem regras acabou. Não por causa de um regulador central, mas porque famílias de adolescentes mortos foram a 27 capitais estaduais e disseram: isso não pode continuar.
Concordar ou discordar de leis específicas é legítimo. O SB 1493 do Tennessee, com criminalização de treinamento, levanta questões sérias sobre liberdade de pesquisa. O modelo de danos estatutários de Oregon pode gerar litigância predatória. São debates válidos.
Mas o vetor é irreversível. A regulação de chatbots nos EUA é um fato consumado. Quem opera nesse mercado tem duas opções: adaptar-se agora ou adaptar-se depois de um processo.
Eu sei qual eu escolheria.