Alucinações de IA em produção: o risco jurídico que chegou ao C-level
-
Ricardo Melo - 18 Mar, 2026
Os tribunais americanos já documentam mais de 1.174 casos envolvendo alucinações de IA em filings judiciais. O número cresce semanalmente. Não são casos hipotéticos — são advogados sancionados por citar jurisprudência fabricada por ChatGPT, empresas processadas por informações falsas geradas por agentes de IA e contratos contestados porque cláusulas foram redigidas com base em outputs alucinados.
A mudança mais importante não é a quantidade de casos. É como os tribunais estão classificando o problema.
Produto funcionando conforme projetado
A interpretação judicial emergente trata a alucinação não como defeito do produto, mas como característica inerente. LLMs geram texto probabilisticamente — não buscam verdade, buscam plausibilidade. Quando um modelo fabrica uma citação jurídica, está fazendo exatamente o que foi projetado para fazer: gerar texto que parece correto.
Essa classificação tem implicações práticas severas para a defesa legal. Se a alucinação é defeito, o fabricante do modelo é responsável. Se é característica inerente de um produto funcionando conforme projetado, a responsabilidade recai sobre quem escolheu usar o produto sem as salvaguardas adequadas.
Para organizações que deployam IA em funções customer-facing — atendimento, vendas, consultoria, saúde, jurídico — a mensagem é direta: a responsabilidade é sua, não do vendor.
O que os tribunais estão decidindo
Três tendências jurisprudenciais relevantes para o C-level:
Sanções por negligência profissional. Advogados que usam IA para gerar filings sem verificação estão sendo sancionados. O tribunal não aceita “o ChatGPT disse” como defesa. A obrigação de verificação é do profissional — a ferramenta não substitui a due diligence.
Responsabilidade de representação. Se uma empresa usa IA para comunicar-se com clientes — gerar propostas comerciais, responder perguntas sobre produtos, produzir relatórios — ela é responsável pela acurácia do conteúdo. O fato de o texto ter sido gerado por IA não isenta a empresa de responsabilidade por representações falsas ou enganosas.
IA em due diligence de M&A. Alucinações em documentos jurídicos usados em transações de M&A estão sendo classificadas como “time bomb” — um risco latente que pode explodir após o closing. Se uma due diligence conduzida com auxílio de IA contém informações fabricadas que não foram verificadas, a exposição legal afeta compradores e vendedores.
O framework regulatório que está se fechando
O ambiente regulatório está convergindo para formalizar o que os tribunais já estão decidindo caso a caso:
EU AI Act (agosto 2026): sistemas de IA que geram conteúdo devem marcar outputs como gerados por IA. Sistemas de alto risco precisam de supervisão humana documentada. Transparência e rastreabilidade são obrigatórias.
Colorado AI Act (junho 2026): empresas que deployam IA em “decisões consequenciais” (emprego, crédito, saúde, seguros) devem implementar governance frameworks formalizados.
Requisitos emergentes de seguradoras: apólices de E&O (Errors & Omissions) estão sendo revisadas para incluir cláusulas específicas sobre uso de IA. Algumas seguradoras já exigem prova de governance de IA como condição para cobertura.
A convergência é clara: compradores, reguladores, tribunais e seguradoras esperam que empresas demonstrem que IA customer-facing é governada — não improvisada.
O custo real das alucinações
Para o CFO, o risco se materializa em três linhas:
Litígio direto. Processos por informações falsas, representações enganosas ou negligência profissional. Custos de defesa, settlements e danos reputacionais.
Prêmio de seguro. Seguradoras estão reprecificando risco para empresas que usam IA em funções de alto impacto sem governance documentada. Prêmios de D&O e E&O estão subindo para essas empresas.
Impacto em valuation. Em transações de M&A, a ausência de governance de IA está se tornando item de due diligence. Investidores e compradores querem saber: a empresa usa IA? Onde? Com que salvaguardas? Houve incidentes? Como foram tratados? Respostas insatisfatórias afetam valuation.
Cinco ações para mitigar o risco
1. Inventário de IA com classificação de risco de alucinação. Nem todo uso de IA tem o mesmo risco. IA para classificação interna de documentos é low-risk. IA para comunicação com clientes ou geração de pareceres é high-risk. A classificação determina o nível de supervisão necessário.
2. Human-in-the-loop obrigatório para outputs de alto risco. Qualquer conteúdo gerado por IA que será comunicado externamente — clientes, reguladores, parceiros, tribunais — deve passar por revisão humana antes de publicação. Sem exceção.
3. Logging e rastreabilidade. Cada output de IA deve ser logado: prompt, modelo usado, versão, timestamp, quem revisou e quem aprovou a publicação. Quando o tribunal ou o regulador pedir, a empresa precisa mostrar a cadeia completa.
4. Política de uso de IA documentada. Definir onde IA pode ser usada, onde não pode, e quais salvaguardas se aplicam em cada caso. A política precisa ser treinada — documento no SharePoint que ninguém leu não é governance.
5. Revisão de contratos com vendors de IA. Verificar cláusulas de indemnification, limitation of liability e responsabilidade por outputs. A maioria dos termos de uso de providers de IA exclui responsabilidade por acurácia dos outputs. Se o contrato do vendor diz que ele não é responsável — e diz — a empresa precisa saber que o risco é inteiramente dela.
O contexto brasileiro
No Brasil, a LGPD já exige que decisões automatizadas que afetem direitos do titular possam ser explicadas (art. 20). Quando uma IA alucina numa decisão de crédito ou de contratação, a empresa precisa explicar o raciocínio — e não há como explicar uma fabricação.
O Marco Legal de IA (PL 2338) vai adicionar camadas de obrigação: transparência, supervisão humana, avaliação de impacto. Empresas brasileiras que já estruturam governance de IA hoje estarão preparadas. As que não estruturarem vão enfrentar o mesmo cenário que empresas americanas enfrentam agora nos tribunais — mas sem a mesma capacidade de absorver custos de litígio.
A mensagem para o board
Alucinações de IA não são bug. São característica inerente da tecnologia. O risco jurídico não está em usar IA — está em usar IA sem governance.
A empresa que deploya agentes de IA em produção sem logging, sem human-in-the-loop, sem política documentada e sem revisão de contratos com vendors está acumulando risco jurídico que vai se materializar. Não é questão de se. É de quando.