Proxy season 2026: boards que não demonstram AI literacy arriscam withhold de acionistas
-
Ricardo Melo - 01 Apr, 2026
A proxy season 2026 está em andamento. Assembleias de acionistas acontecem entre abril e maio, e este ano trouxeram uma exigência que a maioria dos conselhos de administração não tinha no radar doze meses atrás: demonstrar, de forma documentada, que o board tem competência para supervisionar inteligência artificial.
Não é recomendação genérica. Proxy advisors como ISS e Glass Lewis passaram a avaliar AI literacy como critério para recomendações de voto. Boards que não documentam frameworks de AI oversight nos proxy statements estão recebendo withhold recommendations — recomendações para que acionistas se abstenham de votar na reeleição de diretores específicos. O mecanismo é simples: se o acionista entende que o conselheiro não tem competência para supervisionar um risco material, ele retira o voto de confiança.
Para quem lidera, isso deixou de ser pauta de governança para virar risco individual de reputação e responsabilidade.
O que mudou em 2026
Até 2025, a supervisão de IA pelos boards era tratada como boa prática. Publicações como Corporate Board Member e firmas como WilmerHale já recomendavam que conselhos desenvolvessem competências em IA, mas o mercado tratava isso como aspiracional. Quem tivesse uma política genérica de tecnologia já marcava o checkbox.
Em 2026, três movimentos convergiram para mudar o cenário:
-
Proxy advisors atualizaram seus frameworks de avaliação. ISS e Glass Lewis passaram a incluir perguntas específicas sobre AI oversight nas análises de proxy statements. Não basta mais dizer que o board “monitora riscos tecnológicos”. É preciso detalhar: qual comitê é responsável por IA, que tipo de treinamento os diretores receberam, com que frequência o board revisa métricas de risco e oportunidade de IA.
-
Investidores institucionais passaram a cobrar disclosure. Fundos com mandatos ESG e de governança já incluem IA nos engagement letters enviados a empresas do portfólio. A lógica é direta: IA é risco material. Se é risco material, precisa de supervisão documentada. Se não tem supervisão documentada, é falha de governança.
-
A jurisprudência Caremark ganhou uma nova dimensão. No direito societário americano, a doutrina Caremark estabelece que diretores têm o dever fiduciário de implementar sistemas de monitoramento para riscos materiais conhecidos. Com IA sendo adotada em escala — e os riscos de viés, alucinação, vazamento de dados e compliance já amplamente documentados — a ausência de um framework de supervisão de IA pode configurar breach of fiduciary duty. Não é teoria. Escritórios como WilmerHale já alertam que claims tipo Caremark contra diretores individuais são uma questão de quando, não de se.
O que um withhold recommendation significa na prática
Um withhold não é voto contra. Tecnicamente, é abstenção. Mas o efeito prático é devastador.
Quando um proxy advisor emite withhold recommendation para um diretor, isso sinaliza ao mercado que aquele conselheiro não atende aos critérios mínimos de competência ou diligência para a função. Mesmo que o diretor seja reeleito — e na maioria dos casos é, porque a base acionária nem sempre segue o advisor — o dano reputacional é concreto.
Os efeitos cascateiam:
- Sinal público de fragilidade de governança. Analistas e a imprensa especializada monitoram withhold rates. Um percentual acima de 20-30% de abstenções contra um diretor específico vira manchete.
- Pressão interna sobre o chair do board. Após um withhold significativo, o chair é pressionado a responder — o que frequentemente resulta em rotação de diretores ou criação apressada de comitês.
- Precedente para ações judiciais. Um withhold recommendation documentado por falta de AI oversight pode ser usado como evidência em uma ação Caremark. O argumento é claro: o mercado sinalizou que havia deficiência, e o board não agiu.
O gap que os acionistas estão explorando
Dados recentes mostram que 70% dos líderes do Fortune 500 reportam ter estruturas de governança de IA. Apenas 14% dizem estar de fato prontos para deploy de IA em escala. Esse gap entre política formal e prontidão operacional — que já foi discutido neste blog — agora tem um mecanismo de enforcement: o voto do acionista.
Acionistas sofisticados conseguem ler um proxy statement e distinguir entre uma empresa que tem governança de IA real e uma que tem um documento genérico aprovado às pressas. Os indicadores que proxy advisors estão avaliando incluem:
- Existência de comitê designado para supervisão de IA (não apenas “tecnologia” genérica)
- Frequência de reporting de IA ao board (trimestral como mínimo)
- Competências documentadas de diretores em IA — formação, experiência operacional, certificações
- Framework de risk assessment específico para IA, separado do risk assessment de TI geral
- Métricas de uso de IA em produção e seus indicadores de risco (alucinação rate, bias audits, incident reports)
A recomendação aqui é direta: se o proxy statement da sua empresa não endereça esses pontos, o conselho está exposto.
O que fazer antes de maio
A proxy season tem prazo. Assembleias acontecem. Proxy statements já foram ou estão sendo publicados. Para a maioria das empresas, o ciclo 2026 já está em andamento. Mas há ações que podem ser executadas agora e refletidas em comunicações suplementares ou no ciclo 2027:
Para o ciclo atual (abril/maio 2026):
- Mapear se o proxy statement endereça AI oversight de forma específica. Se não, preparar talking points para o chair responder perguntas de acionistas na assembleia.
- Identificar quais diretores têm competências documentáveis em IA. Se nenhum tem, isso precisa ser endereçado publicamente com um plano de capacitação.
- Revisar se o comitê de auditoria ou de riscos tem mandato explícito para supervisão de IA.
Para o ciclo 2027 (preparação começa agora):
- Implementar um AI oversight framework documentado — alinhado ao NIST AI RMF ou à ISO 42001.
- Incluir métricas de IA nos risk reports trimestrais ao board.
- Considerar a adição de um diretor com expertise operacional em IA. Não acadêmica — operacional. Alguém que já colocou IA em produção em escala.
- Documentar treinamentos de AI literacy para o board completo, com carga horária e conteúdo.
O ângulo brasileiro
Para empresas brasileiras listadas na B3 — ou com ADRs em bolsas americanas — a exposição é dupla. O código de governança da B3 já recomenda que conselhos monitorem riscos tecnológicos materiais. O PL 2338 (Marco Legal de IA), em análise final na Câmara, pode criar obrigações adicionais de supervisão e accountability para decisões algorítmicas.
Conselhos que já têm o hábito de tratar IA como tema de board estão em vantagem. Os que tratam IA como “assunto de TI” estão acumulando risco de governança em duas jurisdições simultaneamente.
O prazo é real
A proxy season não espera. Acionistas estão votando. Proxy advisors já publicaram suas recomendações para os ciclos de abril e maio. Se o board da sua empresa não tem um framework documentado de AI oversight, a janela de preparação para 2026 já fechou. A de 2027 abriu agora.
A pergunta que todo conselheiro deveria fazer a si mesmo neste momento: se um acionista perguntar o que o board fez para supervisionar IA no último ano, existe uma resposta documentada, específica e verificável? Se não existe, o risco não é hipotético. É o próximo ciclo de proxy.