Showing Posts From
Health
-
Lucas Ferreira - 09 Apr, 2026
EUA avançam para banir chatbots terapeutas — quase 100 projetos de lei em 2026
Os Estados Unidos estão entrando em uma onda legislativa contra chatbots que oferecem serviços de saúde mental. Em 2026, quase 100 projetos de lei específicos sobre chatbots foram apresentados em legislaturas estaduais. Maine acaba de aprovar uma proibição de IA em terapia clínica. Missouri está no mesmo caminho. E o movimento está apenas começando. O que está acontecendo O cenário legislativo americano se dividiu em três frentes simultâneas: Maine — LD 2082. A legislatura estadual aprovou o projeto que proíbe o uso clínico de inteligência artificial em terapia de saúde mental. O uso administrativo — agendamento, transcrição, organização de prontuários — continua permitido. O projeto aguarda a assinatura do governador. A legislatura do Maine encerra a sessão em 15 de abril, o que pressiona uma decisão rápida. Missouri — HB 525. Aprovado pela Câmara em 2 de abril, o projeto agora tramita no Comitê de Famílias, Idosos e Saúde do Senado. O escopo é amplo: cobre "serviços de terapia, serviços de psicoterapia ou diagnóstico de saúde mental" feitos por IA. A penalidade é de $10 mil por primeira violação, com enforcement pelo procurador-geral. Washington State já aprovou uma lei sobre chatbots companheiros de IA. Califórnia está avançando com o SB 243. O Future of Privacy Forum mantém um tracker completo dessas legislações. Por que agora A resposta tem nome: Character AI, Replika e uma geração inteira de apps que, intencionalmente ou não, passaram a funcionar como terapeutas substitutos para milhões de usuários. O problema não é que chatbots conversam sobre sentimentos. É que o fazem sem supervisão clínica, sem treinamento em protocolos de risco, e muitas vezes com populações vulneráveis — adolescentes, pessoas em crise, pacientes sem acesso a profissionais. Incidentes envolvendo menores de idade usando chatbots como suporte emocional, incluindo casos com desfechos trágicos, aceleraram a pressão legislativa. Os legisladores estão respondendo a uma lacuna regulatória real. Hoje, nos EUA, um app pode oferecer "apoio emocional" via IA sem se enquadrar em nenhuma regulação de saúde mental. Não precisa de licença, não segue protocolos clínicos, não tem obrigação de encaminhar para emergência. Essa zona cinzenta está sendo fechada estado por estado. O mapa legislativo O Future of Privacy Forum catalogou as quase 100 propostas em três categorias:Chatbots genéricos — projetos que regulam qualquer interação conversacional com IA, exigindo transparência ("você está falando com uma máquina") e limites em coleta de dados Chatbots companheiros — focados em apps tipo Replika e Character AI, que criam personas emocionais. Regulam consentimento, coleta de dados emocionais e uso por menores Chatbots de saúde mental — a categoria mais restritiva, que busca proibir ou limitar severamente o uso de IA para terapia, diagnóstico ou aconselhamento psicológicoA tendência é clara: a regulação está ficando mais específica e mais restritiva conforme sobe na escala de risco. Chatbots genéricos recebem obrigações de transparência. Chatbots de saúde mental recebem proibições. E o Brasil? O Conselho Federal de Psicologia (CFP) ainda não publicou orientação específica sobre chatbots de IA em contexto terapêutico. A resolução CFP 11/2018, que regulamenta a psicoterapia online, trata exclusivamente de atendimento por profissionais humanos — via videoconferência, não via algoritmo. Enquanto isso, os mesmos apps que estão sendo regulados nos EUA estão disponíveis para brasileiros. Character AI e Replika funcionam normalmente no Brasil. Não há exigência de aviso de que o usuário está interagindo com IA. Não há proteção específica para menores. O Marco Legal de IA (PL 2338), que tramita no Congresso, aborda sistemas de IA de alto risco — e saúde está na lista. Mas o texto não menciona especificamente chatbots terapêuticos. A LGPD oferece alguma proteção em relação a dados sensíveis de saúde, mas não regula a natureza do serviço oferecido. A recomendação aqui é direta: o CFP deveria estar olhando para o que está acontecendo nos EUA e se antecipando. Não com alarmismo, mas com orientação clara sobre o que é e o que não é aceitável no uso de IA em contexto de saúde mental no Brasil. O equilíbrio difícil Vale registrar o outro lado. Existem evidências de que chatbots podem ser úteis como complemento — não substituto — de tratamento de saúde mental. Técnicas de terapia cognitivo-comportamental (TCC) adaptadas para chatbots mostraram resultados positivos em estudos controlados. O problema não é a tecnologia em si — é a falta de supervisão, a falta de limites e a falta de responsabilização quando algo dá errado. Banir completamente chatbots de saúde mental pode ser uma resposta excessiva. Mas a alternativa — não regular nada — é claramente pior. O que os EUA estão construindo, de forma fragmentada e imperfeita, é um framework que distingue entre "IA que ajuda um profissional a tratar" e "IA que tenta substituir o profissional". Essa distinção faz sentido. Conclusão Quase 100 projetos de lei em um único ano não é reação legislativa — é uma onda. Os chatbots cruzaram uma linha que a sociedade americana está demarcando em tempo real: máquinas podem conversar, mas não podem tratar. Para quem acompanha regulação de IA, esse é um dos movimentos mais rápidos e coordenados de 2026. E para o Brasil, é um aviso: a mesma pressão vai chegar. A questão é se chegaremos preparados.