Showing Posts From
Proxy season
-
Ricardo Melo - 01 Apr, 2026
Proxy season 2026: boards que não demonstram AI literacy arriscam withhold de acionistas
A proxy season 2026 está em andamento. Assembleias de acionistas acontecem entre abril e maio, e este ano trouxeram uma exigência que a maioria dos conselhos de administração não tinha no radar doze meses atrás: demonstrar, de forma documentada, que o board tem competência para supervisionar inteligência artificial. Não é recomendação genérica. Proxy advisors como ISS e Glass Lewis passaram a avaliar AI literacy como critério para recomendações de voto. Boards que não documentam frameworks de AI oversight nos proxy statements estão recebendo withhold recommendations — recomendações para que acionistas se abstenham de votar na reeleição de diretores específicos. O mecanismo é simples: se o acionista entende que o conselheiro não tem competência para supervisionar um risco material, ele retira o voto de confiança. Para quem lidera, isso deixou de ser pauta de governança para virar risco individual de reputação e responsabilidade. O que mudou em 2026 Até 2025, a supervisão de IA pelos boards era tratada como boa prática. Publicações como Corporate Board Member e firmas como WilmerHale já recomendavam que conselhos desenvolvessem competências em IA, mas o mercado tratava isso como aspiracional. Quem tivesse uma política genérica de tecnologia já marcava o checkbox. Em 2026, três movimentos convergiram para mudar o cenário:Proxy advisors atualizaram seus frameworks de avaliação. ISS e Glass Lewis passaram a incluir perguntas específicas sobre AI oversight nas análises de proxy statements. Não basta mais dizer que o board "monitora riscos tecnológicos". É preciso detalhar: qual comitê é responsável por IA, que tipo de treinamento os diretores receberam, com que frequência o board revisa métricas de risco e oportunidade de IA.Investidores institucionais passaram a cobrar disclosure. Fundos com mandatos ESG e de governança já incluem IA nos engagement letters enviados a empresas do portfólio. A lógica é direta: IA é risco material. Se é risco material, precisa de supervisão documentada. Se não tem supervisão documentada, é falha de governança.A jurisprudência Caremark ganhou uma nova dimensão. No direito societário americano, a doutrina Caremark estabelece que diretores têm o dever fiduciário de implementar sistemas de monitoramento para riscos materiais conhecidos. Com IA sendo adotada em escala — e os riscos de viés, alucinação, vazamento de dados e compliance já amplamente documentados — a ausência de um framework de supervisão de IA pode configurar breach of fiduciary duty. Não é teoria. Escritórios como WilmerHale já alertam que claims tipo Caremark contra diretores individuais são uma questão de quando, não de se.O que um withhold recommendation significa na prática Um withhold não é voto contra. Tecnicamente, é abstenção. Mas o efeito prático é devastador. Quando um proxy advisor emite withhold recommendation para um diretor, isso sinaliza ao mercado que aquele conselheiro não atende aos critérios mínimos de competência ou diligência para a função. Mesmo que o diretor seja reeleito — e na maioria dos casos é, porque a base acionária nem sempre segue o advisor — o dano reputacional é concreto. Os efeitos cascateiam:Sinal público de fragilidade de governança. Analistas e a imprensa especializada monitoram withhold rates. Um percentual acima de 20-30% de abstenções contra um diretor específico vira manchete. Pressão interna sobre o chair do board. Após um withhold significativo, o chair é pressionado a responder — o que frequentemente resulta em rotação de diretores ou criação apressada de comitês. Precedente para ações judiciais. Um withhold recommendation documentado por falta de AI oversight pode ser usado como evidência em uma ação Caremark. O argumento é claro: o mercado sinalizou que havia deficiência, e o board não agiu.O gap que os acionistas estão explorando Dados recentes mostram que 70% dos líderes do Fortune 500 reportam ter estruturas de governança de IA. Apenas 14% dizem estar de fato prontos para deploy de IA em escala. Esse gap entre política formal e prontidão operacional — que já foi discutido neste blog — agora tem um mecanismo de enforcement: o voto do acionista. Acionistas sofisticados conseguem ler um proxy statement e distinguir entre uma empresa que tem governança de IA real e uma que tem um documento genérico aprovado às pressas. Os indicadores que proxy advisors estão avaliando incluem:Existência de comitê designado para supervisão de IA (não apenas "tecnologia" genérica) Frequência de reporting de IA ao board (trimestral como mínimo) Competências documentadas de diretores em IA — formação, experiência operacional, certificações Framework de risk assessment específico para IA, separado do risk assessment de TI geral Métricas de uso de IA em produção e seus indicadores de risco (alucinação rate, bias audits, incident reports)A recomendação aqui é direta: se o proxy statement da sua empresa não endereça esses pontos, o conselho está exposto. O que fazer antes de maio A proxy season tem prazo. Assembleias acontecem. Proxy statements já foram ou estão sendo publicados. Para a maioria das empresas, o ciclo 2026 já está em andamento. Mas há ações que podem ser executadas agora e refletidas em comunicações suplementares ou no ciclo 2027: Para o ciclo atual (abril/maio 2026):Mapear se o proxy statement endereça AI oversight de forma específica. Se não, preparar talking points para o chair responder perguntas de acionistas na assembleia. Identificar quais diretores têm competências documentáveis em IA. Se nenhum tem, isso precisa ser endereçado publicamente com um plano de capacitação. Revisar se o comitê de auditoria ou de riscos tem mandato explícito para supervisão de IA.Para o ciclo 2027 (preparação começa agora):Implementar um AI oversight framework documentado — alinhado ao NIST AI RMF ou à ISO 42001. Incluir métricas de IA nos risk reports trimestrais ao board. Considerar a adição de um diretor com expertise operacional em IA. Não acadêmica — operacional. Alguém que já colocou IA em produção em escala. Documentar treinamentos de AI literacy para o board completo, com carga horária e conteúdo.O ângulo brasileiro Para empresas brasileiras listadas na B3 — ou com ADRs em bolsas americanas — a exposição é dupla. O código de governança da B3 já recomenda que conselhos monitorem riscos tecnológicos materiais. O PL 2338 (Marco Legal de IA), em análise final na Câmara, pode criar obrigações adicionais de supervisão e accountability para decisões algorítmicas. Conselhos que já têm o hábito de tratar IA como tema de board estão em vantagem. Os que tratam IA como "assunto de TI" estão acumulando risco de governança em duas jurisdições simultaneamente. O prazo é real A proxy season não espera. Acionistas estão votando. Proxy advisors já publicaram suas recomendações para os ciclos de abril e maio. Se o board da sua empresa não tem um framework documentado de AI oversight, a janela de preparação para 2026 já fechou. A de 2027 abriu agora. A pergunta que todo conselheiro deveria fazer a si mesmo neste momento: se um acionista perguntar o que o board fez para supervisionar IA no último ano, existe uma resposta documentada, específica e verificável? Se não existe, o risco não é hipotético. É o próximo ciclo de proxy.