Proxy season 2026: boards que não demonstram AI literacy arriscam withhold de acionistas

Proxy season 2026: boards que não demonstram AI literacy arriscam withhold de acionistas

A proxy season 2026 está em andamento. Assembleias de acionistas acontecem entre abril e maio, e este ano trouxeram uma exigência que a maioria dos conselhos de administração não tinha no radar doze meses atrás: demonstrar, de forma documentada, que o board tem competência para supervisionar inteligência artificial.

Não é recomendação genérica. Proxy advisors como ISS e Glass Lewis passaram a avaliar AI literacy como critério para recomendações de voto. Boards que não documentam frameworks de AI oversight nos proxy statements estão recebendo withhold recommendations — recomendações para que acionistas se abstenham de votar na reeleição de diretores específicos. O mecanismo é simples: se o acionista entende que o conselheiro não tem competência para supervisionar um risco material, ele retira o voto de confiança.

Para quem lidera, isso deixou de ser pauta de governança para virar risco individual de reputação e responsabilidade.

O que mudou em 2026

Até 2025, a supervisão de IA pelos boards era tratada como boa prática. Publicações como Corporate Board Member e firmas como WilmerHale já recomendavam que conselhos desenvolvessem competências em IA, mas o mercado tratava isso como aspiracional. Quem tivesse uma política genérica de tecnologia já marcava o checkbox.

Em 2026, três movimentos convergiram para mudar o cenário:

  • Proxy advisors atualizaram seus frameworks de avaliação. ISS e Glass Lewis passaram a incluir perguntas específicas sobre AI oversight nas análises de proxy statements. Não basta mais dizer que o board “monitora riscos tecnológicos”. É preciso detalhar: qual comitê é responsável por IA, que tipo de treinamento os diretores receberam, com que frequência o board revisa métricas de risco e oportunidade de IA.

  • Investidores institucionais passaram a cobrar disclosure. Fundos com mandatos ESG e de governança já incluem IA nos engagement letters enviados a empresas do portfólio. A lógica é direta: IA é risco material. Se é risco material, precisa de supervisão documentada. Se não tem supervisão documentada, é falha de governança.

  • A jurisprudência Caremark ganhou uma nova dimensão. No direito societário americano, a doutrina Caremark estabelece que diretores têm o dever fiduciário de implementar sistemas de monitoramento para riscos materiais conhecidos. Com IA sendo adotada em escala — e os riscos de viés, alucinação, vazamento de dados e compliance já amplamente documentados — a ausência de um framework de supervisão de IA pode configurar breach of fiduciary duty. Não é teoria. Escritórios como WilmerHale já alertam que claims tipo Caremark contra diretores individuais são uma questão de quando, não de se.

O que um withhold recommendation significa na prática

Um withhold não é voto contra. Tecnicamente, é abstenção. Mas o efeito prático é devastador.

Quando um proxy advisor emite withhold recommendation para um diretor, isso sinaliza ao mercado que aquele conselheiro não atende aos critérios mínimos de competência ou diligência para a função. Mesmo que o diretor seja reeleito — e na maioria dos casos é, porque a base acionária nem sempre segue o advisor — o dano reputacional é concreto.

Os efeitos cascateiam:

  • Sinal público de fragilidade de governança. Analistas e a imprensa especializada monitoram withhold rates. Um percentual acima de 20-30% de abstenções contra um diretor específico vira manchete.
  • Pressão interna sobre o chair do board. Após um withhold significativo, o chair é pressionado a responder — o que frequentemente resulta em rotação de diretores ou criação apressada de comitês.
  • Precedente para ações judiciais. Um withhold recommendation documentado por falta de AI oversight pode ser usado como evidência em uma ação Caremark. O argumento é claro: o mercado sinalizou que havia deficiência, e o board não agiu.

O gap que os acionistas estão explorando

Dados recentes mostram que 70% dos líderes do Fortune 500 reportam ter estruturas de governança de IA. Apenas 14% dizem estar de fato prontos para deploy de IA em escala. Esse gap entre política formal e prontidão operacional — que já foi discutido neste blog — agora tem um mecanismo de enforcement: o voto do acionista.

Acionistas sofisticados conseguem ler um proxy statement e distinguir entre uma empresa que tem governança de IA real e uma que tem um documento genérico aprovado às pressas. Os indicadores que proxy advisors estão avaliando incluem:

  • Existência de comitê designado para supervisão de IA (não apenas “tecnologia” genérica)
  • Frequência de reporting de IA ao board (trimestral como mínimo)
  • Competências documentadas de diretores em IA — formação, experiência operacional, certificações
  • Framework de risk assessment específico para IA, separado do risk assessment de TI geral
  • Métricas de uso de IA em produção e seus indicadores de risco (alucinação rate, bias audits, incident reports)

A recomendação aqui é direta: se o proxy statement da sua empresa não endereça esses pontos, o conselho está exposto.

O que fazer antes de maio

A proxy season tem prazo. Assembleias acontecem. Proxy statements já foram ou estão sendo publicados. Para a maioria das empresas, o ciclo 2026 já está em andamento. Mas há ações que podem ser executadas agora e refletidas em comunicações suplementares ou no ciclo 2027:

Para o ciclo atual (abril/maio 2026):

  • Mapear se o proxy statement endereça AI oversight de forma específica. Se não, preparar talking points para o chair responder perguntas de acionistas na assembleia.
  • Identificar quais diretores têm competências documentáveis em IA. Se nenhum tem, isso precisa ser endereçado publicamente com um plano de capacitação.
  • Revisar se o comitê de auditoria ou de riscos tem mandato explícito para supervisão de IA.

Para o ciclo 2027 (preparação começa agora):

  • Implementar um AI oversight framework documentado — alinhado ao NIST AI RMF ou à ISO 42001.
  • Incluir métricas de IA nos risk reports trimestrais ao board.
  • Considerar a adição de um diretor com expertise operacional em IA. Não acadêmica — operacional. Alguém que já colocou IA em produção em escala.
  • Documentar treinamentos de AI literacy para o board completo, com carga horária e conteúdo.

O ângulo brasileiro

Para empresas brasileiras listadas na B3 — ou com ADRs em bolsas americanas — a exposição é dupla. O código de governança da B3 já recomenda que conselhos monitorem riscos tecnológicos materiais. O PL 2338 (Marco Legal de IA), em análise final na Câmara, pode criar obrigações adicionais de supervisão e accountability para decisões algorítmicas.

Conselhos que já têm o hábito de tratar IA como tema de board estão em vantagem. Os que tratam IA como “assunto de TI” estão acumulando risco de governança em duas jurisdições simultaneamente.

O prazo é real

A proxy season não espera. Acionistas estão votando. Proxy advisors já publicaram suas recomendações para os ciclos de abril e maio. Se o board da sua empresa não tem um framework documentado de AI oversight, a janela de preparação para 2026 já fechou. A de 2027 abriu agora.

A pergunta que todo conselheiro deveria fazer a si mesmo neste momento: se um acionista perguntar o que o board fez para supervisionar IA no último ano, existe uma resposta documentada, específica e verificável? Se não existe, o risco não é hipotético. É o próximo ciclo de proxy.