Showing Posts From
Regulação
-
Ricardo Melo - 30 Mar, 2026
PCAST de Trump — quem está na mesa e o que isso significa para regulação de IA
Em 25 de março de 2026, o presidente Trump nomeou 13 membros para o President's Council of Advisors on Science and Technology — o PCAST. A lista inclui Mark Zuckerberg (Meta), Jensen Huang (NVIDIA), Larry Ellison (Oracle), Lisa Su (AMD), Marc Andreessen (Andreessen Horowitz) e Sergey Brin (Google). A presidência do conselho ficou com David Sacks, o czar de IA e crypto da administração, e Michael Kratsios, diretor do Office of Science and Technology Policy. O conselho pode ter até 24 membros. Treze foram nomeados. Os nomes que estão fora são tão informativos quanto os que estão dentro. A composição como declaração de política industrial O PCAST não é um órgão regulador. Não cria leis, não emite regulações, não aplica penalidades. É um conselho consultivo. Mas reduzir sua relevância a isso seria um erro de leitura estratégica. O PCAST define a agenda de ciência e tecnologia que o Executivo leva ao Congresso. É onde prioridades se formam, onde trade-offs são arbitrados, onde a direção da política industrial americana é calibrada antes de virar proposta legislativa. A composição diz o seguinte: a política de IA dos Estados Unidos será orientada por quem constrói e vende a infraestrutura de IA — chips, cloud, plataformas, modelos de fundação. Seis dos treze nomes estão diretamente envolvidos na cadeia de valor de semicondutores e infraestrutura de IA. Não há representação significativa de academia independente, sociedade civil ou organizações de direitos digitais. Para o C-level, a leitura é direta: a regulação americana de IA será desenhada com input predominante de Big Tech. Isso confirma a trajetória light-touch sinalizada pelo framework legislativo de 20 de março. Não haverá surpresas regulatórias restritivas vindas desse conselho. As ausências que importam: Musk e Altman Elon Musk e Sam Altman não foram nomeados. As razões são diferentes, mas o impacto é complementar. Musk, que investiu pesado na campanha de Trump e liderou o DOGE (Department of Government Efficiency), está em rota de colisão pública com partes da administração. Sua ausência no PCAST é um indicador de distanciamento político — relevante para quem acompanha a dinâmica de poder em torno da política de IA. A xAI, empresa de IA de Musk, não terá assento direto na mesa que orienta a agenda tecnológica federal. Altman, CEO da OpenAI, está ausente num contexto em que a OpenAI transiciona para modelo com fins lucrativos e enfrenta escrutínio sobre governança corporativa. A empresa que mais define a percepção pública de IA generativa não tem voz formal no conselho que vai moldar a política do setor. O que isso significa na prática: as recomendações do PCAST refletirão os interesses e a visão de mundo de empresas de infraestrutura (NVIDIA, AMD, Oracle) e plataformas (Meta, Google). Empresas focadas exclusivamente em modelos de fundação (OpenAI) e projetos de IA com ambições mais amplas (xAI) ficam sem representação direta. A política industrial resultante tende a favorecer a camada de hardware e cloud sobre a camada de aplicação e serviços. A conexão com o framework de 20 de março O timing não é coincidental. Cinco dias antes da nomeação do PCAST, a Casa Branca publicou o National Policy Framework for AI com sete pilares e a proposta de preempção federal de leis estaduais. O PCAST é o mecanismo pelo qual esse framework ganha detalhamento técnico e viabilidade política. Na prática, o conselho vai influenciar:Quais recomendações do framework se tornam propostas legislativas concretas. Nem todos os sete pilares terão o mesmo peso. Espere priorização de inovação, competitividade e chips sobre proteção ao consumidor e workforce. Como a preempção federal será operacionalizada. A mecânica de anular leis estaduais como o Colorado AI Act (vigente em 30 de junho de 2026) será desenhada com input do conselho. A velocidade e o escopo da preempção dependem de como o PCAST enquadra a questão. A agenda de segurança nacional em IA. Com Jensen Huang e Lisa Su na mesa, a política de controle de exportação de chips e a estratégia de semiconductores terão influência direta dos maiores fabricantes. Para empresas que dependem dessa cadeia de suprimentos, monitorar as recomendações do PCAST sobre chips é prioridade.O gap transatlântico se amplia A composição do PCAST consolida a divergência regulatória entre Estados Unidos e União Europeia. De um lado, um conselho consultivo dominado por Big Tech orientando regulação light-touch. Do outro, o EU AI Act caminhando para a implementação plena dos requisitos de alto risco em 2 de agosto de 2026. Os números importam para o CFO:Colorado AI Act: vigência em 30 de junho de 2026. Requisitos de avaliação de impacto e transparência para sistemas de alto risco. O PCAST pode recomendar preempção, mas o processo legislativo no Congresso levará meses — o deadline estadual vem antes. EU AI Act: deadline de alto risco em 2 de agosto de 2026. Multas de até 35 milhoes de euros ou 7% da receita global. Nenhuma recomendação do PCAST americano altera essas obrigações. Divergência de compliance: empresas com operação transatlântica precisam manter estratégia dual. O PCAST pode simplificar o lado americano no médio prazo, mas o lado europeu permanece prescritivo.A recomendação aqui é direta: não use a composição pró-business do PCAST como justificativa para reduzir investimento em compliance. O conselho influencia a direção, não o calendário. Os deadlines regulatórios existentes não mudaram com a nomeação de 25 de março. Riscos e oportunidades para o board Oportunidade: previsibilidade regulatória. A composição do PCAST sinaliza que a regulação americana de IA não será adversarial ao setor privado. Para planejamento de investimento em IA, isso reduz o risco regulatório doméstico no horizonte de 12-24 meses. Empresas que operam predominantemente nos EUA ganham um grau maior de confiança para escalar projetos de IA sem o risco de restrições abruptas. Risco: concentração de influência. Um conselho dominado por empresas de infraestrutura pode gerar políticas que favorecem players incumbentes. Startups e empresas de médio porte que dependem de APIs e serviços de cloud das mesmas empresas que agora aconselham o governo devem monitorar recomendações que possam criar barreiras competitivas indiretas — seja via padrões técnicos, requisitos de segurança ou políticas de procurement federal. Risco: backlash regulatório. A ausência de vozes independentes no PCAST cria vulnerabilidade política. Se um incidente significativo de IA ocorrer nos próximos meses — viés algorítmico em escala, falha de segurança, impacto em emprego — a narrativa de que a regulação foi "capturada" por Big Tech pode gerar reação legislativa mais restritiva do que o framework atual propõe. Cenários de backlash devem estar no radar do General Counsel. Risco: dinâmica Musk. A exclusão de Musk cria um ator poderoso com incentivos para desestabilizar o consenso regulatório. xAI, Tesla e SpaceX são stakeholders significativos em IA. Um Musk fora do PCAST pode se tornar o crítico mais vocal da política resultante — com capacidade de mobilização pública e política para complicar a agenda legislativa. Recomendações para a liderança Para o CEO: O PCAST confirma a trajetória light-touch. A mensagem para o board é de estabilidade regulatória no mercado americano, mas não de complacência. Mantenha o investimento em governança de IA como seguro estratégico — o cenário pode mudar com uma eleição, um incidente ou um backlash político. Para o General Counsel: Monitore as recomendações do PCAST como leading indicator da agenda legislativa. Mas execute compliance com os deadlines em vigor: Colorado em junho, EU AI Act em agosto. O conselho consultivo não altera obrigações existentes. Para o CFO: A composição do PCAST reduz o risco de regulação punitiva nos EUA no curto prazo. Isso favorece o business case de projetos de IA com ROI de 12-18 meses. Mas mantenha provisão para compliance dual (EUA + UE) — a divergência transatlântica é estrutural, não conjuntural. Para o CAIO: Acompanhe os posicionamentos individuais dos membros do PCAST sobre governança de IA, especialmente em temas de segurança de modelos, interoperabilidade e padrões técnicos. As recomendações desse conselho vão moldar os requisitos técnicos da eventual legislação federal. O que fica A nomeação do PCAST é o segundo movimento em dez dias — depois do framework legislativo de 20 de março — que consolida a política americana de IA sob influência direta de Big Tech. A direção é clara: regulação favorável à inovação, preempção federal sobre o mosaico estadual, e política industrial centrada em competitividade com a China. Para quem lidera organizações, o PCAST não muda o que precisa ser feito hoje. Muda a probabilidade dos cenários de amanhã. A composição torna mais provável um regime regulatório americano light-touch e mais improvável uma regulação restritiva no estilo europeu. Mas "mais provável" não é certeza — e governança corporativa se constrói sobre certezas, não sobre apostas. O custo de monitorar e se preparar para múltiplos cenários é marginal. O custo de apostar no cenário errado continua sendo significativo.
-
Ricardo Melo - 28 Mar, 2026
Casa Branca publica framework legislativo nacional de IA — e quer anular leis estaduais
Em 20 de março de 2026, a Casa Branca publicou o National Policy Framework for AI — um documento de recomendações legislativas ao Congresso com sete pilares e uma proposta central que muda o cálculo de compliance de qualquer empresa com operação nos Estados Unidos: a preempção federal de leis estaduais de IA. Para quem investiu meses e milhões adaptando operações ao Colorado AI Act, ao SB-1047 da Califórnia ou às regulações do Texas, esse framework coloca um asterisco grande sobre o retorno desse investimento. O que o framework propõe — e o que ele não é O documento define sete pilares: proteção de crianças, segurança comunitária, direitos de propriedade intelectual, anti-censura e liberdade de expressão, inovação e dominância americana em IA, força de trabalho preparada para IA e preempção federal de legislação estadual. Dois pontos exigem atenção imediata do C-level: Primeiro: não é lei. O framework é um conjunto de recomendações legislativas direcionadas ao Congresso. Não tem força vinculante. Nenhuma lei estadual foi anulada com a publicação desse documento. O Colorado AI Act continua com entrada em vigor prevista para 30 de junho de 2026. As obrigações já existentes permanecem intactas. Segundo: a direção é clara. A administração quer uma abordagem regulatória "light-touch" com padrão federal único. Isso sinaliza ao mercado que a pressão pela simplificação regulatória é real e tem apoio do Executivo. A FTC já recebeu instrução para emitir um policy statement, até 11 de março, sobre como o FTC Act se aplica a sistemas de IA — um passo concreto dentro dessa agenda. O cenário atual: mosaico regulatório em fase de compliance O timing desse framework não é acidental. Pelo menos três estados estão em fase ativa de implementação de regulações de IA:Colorado: O AI Act entra em vigor em 30 de junho de 2026, com requisitos de avaliação de impacto, transparência e governança para sistemas de decisão algorítmica de alto risco. Califórnia: Após o veto do SB-1047 em 2025, novas propostas legislativas avançam com foco em transparência e accountability. Texas: Legislação específica para IA em processo de regulamentação, com ênfase em proteção ao consumidor.Empresas com operação em múltiplos estados estão, neste momento, investindo em compliance multi-jurisdicional. Equipes jurídicas mapeando requisitos divergentes. Consultorias contratadas para gap analysis. Sistemas sendo adaptados para atender a padrões distintos por estado. A preempção federal, se aprovada, tornaria boa parte desse trabalho desnecessário. A questão que o CFO precisa responder é: qual o cenário mais provável — e como dimensionar o investimento de compliance sem desperdiçar capital? Análise de risco: dois cenários para a mesa do board Cenário A — Preempção federal aprovada em 12-18 meses. O Congresso absorve as recomendações e cria um padrão federal único com abordagem light-touch. Leis estaduais são anuladas ou subordinadas. Empresas que investiram pesado em compliance multi-estadual absorvem parte desse custo como sunk cost, mas ganham previsibilidade regulatória e redução de custo de conformidade no médio prazo. Cenário B — Mosaico estadual se mantém. O Congresso não consegue aprovar legislação federal coesa (cenário historicamente mais provável nos EUA para temas polarizados). Estados continuam legislando independentemente. O investimento em compliance multi-estadual se paga. Empresas que pausaram compliance esperando preempção enfrentam risco regulatório real. A recomendação aqui é direta: planeje para o Cenário B, mas arquitete compliance de forma modular para que a transição ao Cenário A não gere retrabalho excessivo. Na prática, isso significa:Manter compliance com leis estaduais vigentes e iminentes (Colorado é prioridade imediata). Estruturar a governança de IA com frameworks reconhecidos (NIST AI RMF, ISO 42001) que servem tanto para compliance estadual quanto para eventual padrão federal. Não pausar investimentos em compliance com base em recomendações legislativas não aprovadas.A divergência transatlântica se aprofunda Para empresas com operação nos Estados Unidos e na União Europeia, o framework da Casa Branca amplia o gap regulatório. Enquanto os EUA propõem "light-touch" e preempção federal, o EU AI Act caminha para a implementação plena dos requisitos de alto risco em 2 de agosto de 2026. Os contrastes são relevantes para a estratégia de compliance:Dimensão EUA (proposta) EU AI ActAbordagem Light-touch, pró-inovação Prescritiva, baseada em riscoEscopo Recomendações ao Congresso Lei vigente com cronograma definidoPreempção Federal sobre estadual Supranacional sobre nacionalEnforcement A definir Multas de até €35M ou 7% da receitaDeadline Indefinido Agosto de 2026O risco para o C-level é claro: operar com dois regimes regulatórios divergentes exige investimento em compliance dual. Empresas que construírem governança de IA baseada apenas no padrão americano proposto (light-touch) não estarão em conformidade com o EU AI Act — e vice-versa. A recomendação é adotar o EU AI Act como baseline de compliance global e tratar o padrão americano como um subset. Quem atende ao requisito mais rigoroso automaticamente atende ao menos rigoroso. O inverso não é verdade. Riscos que o board precisa monitorar Risco de timing legislativo. Propostas legislativas no Congresso americano levam, em média, 18 a 24 meses para aprovação — quando aprovadas. Pausar compliance estadual apostando em preempção rápida é uma aposta assimétrica: o downside (multas e enforcement estadual) é concreto, o upside (economia de compliance) é hipotético. Risco de captura política. O pilar de "anti-censura e liberdade de expressão" no framework tem potencial de gerar obrigações conflitantes com políticas de moderação de conteúdo e viés algorítmico. Empresas de tecnologia e mídia devem monitorar desdobramentos legislativos desse pilar com atenção especial. Risco de compliance fragmentada. Mesmo com preempção federal, a transição entre regimes estaduais e federal criará um período de incerteza jurídica. Contratos de IA firmados sob regime estadual precisarão de cláusulas de adaptação regulatória. Recomendações para a liderança Para o General Counsel: Mantenha o compliance com o Colorado AI Act como prioridade — o deadline de 30 de junho não mudou. Inicie mapeamento das obrigações estaduais em todas as jurisdições relevantes. Inclua cláusulas de adaptação regulatória em novos contratos de fornecedores de IA. Para o CFO: Dimensione o investimento de compliance com cenários duplos. A abordagem modular (frameworks reconhecidos + adaptações jurisdicionais) reduz o risco de custo irrecuperável em qualquer cenário. Para o CEO: O framework da Casa Branca é um sinal de direção, não uma mudança de regras. A mensagem para o board deve ser: "estamos monitorando, estamos preparados para ambos os cenários, e não vamos pausar compliance com base em uma recomendação legislativa." O que fica A publicação do framework é relevante não pelo que muda hoje — porque não muda nada — mas pelo que sinaliza sobre a trajetória regulatória americana. O governo quer simplificar. O mercado quer previsibilidade. Mas entre a intenção e a lei aprovada, há um Congresso dividido e um calendário legislativo congestionado. Empresas que tratarem o framework como motivo para relaxar compliance estão assumindo risco desnecessário. Empresas que o tratarem como irrelevante estão ignorando um sinal estratégico importante. A posição correta está no meio: monitorar ativamente, planejar com cenários e executar compliance com o que está em vigor agora. O custo de estar preparado para dois cenários é marginal. O custo de estar preparado para o cenário errado pode ser significativo.