Showing Posts From
Pcast
-
Ricardo Melo - 30 Mar, 2026
PCAST de Trump — quem está na mesa e o que isso significa para regulação de IA
Em 25 de março de 2026, o presidente Trump nomeou 13 membros para o President's Council of Advisors on Science and Technology — o PCAST. A lista inclui Mark Zuckerberg (Meta), Jensen Huang (NVIDIA), Larry Ellison (Oracle), Lisa Su (AMD), Marc Andreessen (Andreessen Horowitz) e Sergey Brin (Google). A presidência do conselho ficou com David Sacks, o czar de IA e crypto da administração, e Michael Kratsios, diretor do Office of Science and Technology Policy. O conselho pode ter até 24 membros. Treze foram nomeados. Os nomes que estão fora são tão informativos quanto os que estão dentro. A composição como declaração de política industrial O PCAST não é um órgão regulador. Não cria leis, não emite regulações, não aplica penalidades. É um conselho consultivo. Mas reduzir sua relevância a isso seria um erro de leitura estratégica. O PCAST define a agenda de ciência e tecnologia que o Executivo leva ao Congresso. É onde prioridades se formam, onde trade-offs são arbitrados, onde a direção da política industrial americana é calibrada antes de virar proposta legislativa. A composição diz o seguinte: a política de IA dos Estados Unidos será orientada por quem constrói e vende a infraestrutura de IA — chips, cloud, plataformas, modelos de fundação. Seis dos treze nomes estão diretamente envolvidos na cadeia de valor de semicondutores e infraestrutura de IA. Não há representação significativa de academia independente, sociedade civil ou organizações de direitos digitais. Para o C-level, a leitura é direta: a regulação americana de IA será desenhada com input predominante de Big Tech. Isso confirma a trajetória light-touch sinalizada pelo framework legislativo de 20 de março. Não haverá surpresas regulatórias restritivas vindas desse conselho. As ausências que importam: Musk e Altman Elon Musk e Sam Altman não foram nomeados. As razões são diferentes, mas o impacto é complementar. Musk, que investiu pesado na campanha de Trump e liderou o DOGE (Department of Government Efficiency), está em rota de colisão pública com partes da administração. Sua ausência no PCAST é um indicador de distanciamento político — relevante para quem acompanha a dinâmica de poder em torno da política de IA. A xAI, empresa de IA de Musk, não terá assento direto na mesa que orienta a agenda tecnológica federal. Altman, CEO da OpenAI, está ausente num contexto em que a OpenAI transiciona para modelo com fins lucrativos e enfrenta escrutínio sobre governança corporativa. A empresa que mais define a percepção pública de IA generativa não tem voz formal no conselho que vai moldar a política do setor. O que isso significa na prática: as recomendações do PCAST refletirão os interesses e a visão de mundo de empresas de infraestrutura (NVIDIA, AMD, Oracle) e plataformas (Meta, Google). Empresas focadas exclusivamente em modelos de fundação (OpenAI) e projetos de IA com ambições mais amplas (xAI) ficam sem representação direta. A política industrial resultante tende a favorecer a camada de hardware e cloud sobre a camada de aplicação e serviços. A conexão com o framework de 20 de março O timing não é coincidental. Cinco dias antes da nomeação do PCAST, a Casa Branca publicou o National Policy Framework for AI com sete pilares e a proposta de preempção federal de leis estaduais. O PCAST é o mecanismo pelo qual esse framework ganha detalhamento técnico e viabilidade política. Na prática, o conselho vai influenciar:Quais recomendações do framework se tornam propostas legislativas concretas. Nem todos os sete pilares terão o mesmo peso. Espere priorização de inovação, competitividade e chips sobre proteção ao consumidor e workforce. Como a preempção federal será operacionalizada. A mecânica de anular leis estaduais como o Colorado AI Act (vigente em 30 de junho de 2026) será desenhada com input do conselho. A velocidade e o escopo da preempção dependem de como o PCAST enquadra a questão. A agenda de segurança nacional em IA. Com Jensen Huang e Lisa Su na mesa, a política de controle de exportação de chips e a estratégia de semiconductores terão influência direta dos maiores fabricantes. Para empresas que dependem dessa cadeia de suprimentos, monitorar as recomendações do PCAST sobre chips é prioridade.O gap transatlântico se amplia A composição do PCAST consolida a divergência regulatória entre Estados Unidos e União Europeia. De um lado, um conselho consultivo dominado por Big Tech orientando regulação light-touch. Do outro, o EU AI Act caminhando para a implementação plena dos requisitos de alto risco em 2 de agosto de 2026. Os números importam para o CFO:Colorado AI Act: vigência em 30 de junho de 2026. Requisitos de avaliação de impacto e transparência para sistemas de alto risco. O PCAST pode recomendar preempção, mas o processo legislativo no Congresso levará meses — o deadline estadual vem antes. EU AI Act: deadline de alto risco em 2 de agosto de 2026. Multas de até 35 milhoes de euros ou 7% da receita global. Nenhuma recomendação do PCAST americano altera essas obrigações. Divergência de compliance: empresas com operação transatlântica precisam manter estratégia dual. O PCAST pode simplificar o lado americano no médio prazo, mas o lado europeu permanece prescritivo.A recomendação aqui é direta: não use a composição pró-business do PCAST como justificativa para reduzir investimento em compliance. O conselho influencia a direção, não o calendário. Os deadlines regulatórios existentes não mudaram com a nomeação de 25 de março. Riscos e oportunidades para o board Oportunidade: previsibilidade regulatória. A composição do PCAST sinaliza que a regulação americana de IA não será adversarial ao setor privado. Para planejamento de investimento em IA, isso reduz o risco regulatório doméstico no horizonte de 12-24 meses. Empresas que operam predominantemente nos EUA ganham um grau maior de confiança para escalar projetos de IA sem o risco de restrições abruptas. Risco: concentração de influência. Um conselho dominado por empresas de infraestrutura pode gerar políticas que favorecem players incumbentes. Startups e empresas de médio porte que dependem de APIs e serviços de cloud das mesmas empresas que agora aconselham o governo devem monitorar recomendações que possam criar barreiras competitivas indiretas — seja via padrões técnicos, requisitos de segurança ou políticas de procurement federal. Risco: backlash regulatório. A ausência de vozes independentes no PCAST cria vulnerabilidade política. Se um incidente significativo de IA ocorrer nos próximos meses — viés algorítmico em escala, falha de segurança, impacto em emprego — a narrativa de que a regulação foi "capturada" por Big Tech pode gerar reação legislativa mais restritiva do que o framework atual propõe. Cenários de backlash devem estar no radar do General Counsel. Risco: dinâmica Musk. A exclusão de Musk cria um ator poderoso com incentivos para desestabilizar o consenso regulatório. xAI, Tesla e SpaceX são stakeholders significativos em IA. Um Musk fora do PCAST pode se tornar o crítico mais vocal da política resultante — com capacidade de mobilização pública e política para complicar a agenda legislativa. Recomendações para a liderança Para o CEO: O PCAST confirma a trajetória light-touch. A mensagem para o board é de estabilidade regulatória no mercado americano, mas não de complacência. Mantenha o investimento em governança de IA como seguro estratégico — o cenário pode mudar com uma eleição, um incidente ou um backlash político. Para o General Counsel: Monitore as recomendações do PCAST como leading indicator da agenda legislativa. Mas execute compliance com os deadlines em vigor: Colorado em junho, EU AI Act em agosto. O conselho consultivo não altera obrigações existentes. Para o CFO: A composição do PCAST reduz o risco de regulação punitiva nos EUA no curto prazo. Isso favorece o business case de projetos de IA com ROI de 12-18 meses. Mas mantenha provisão para compliance dual (EUA + UE) — a divergência transatlântica é estrutural, não conjuntural. Para o CAIO: Acompanhe os posicionamentos individuais dos membros do PCAST sobre governança de IA, especialmente em temas de segurança de modelos, interoperabilidade e padrões técnicos. As recomendações desse conselho vão moldar os requisitos técnicos da eventual legislação federal. O que fica A nomeação do PCAST é o segundo movimento em dez dias — depois do framework legislativo de 20 de março — que consolida a política americana de IA sob influência direta de Big Tech. A direção é clara: regulação favorável à inovação, preempção federal sobre o mosaico estadual, e política industrial centrada em competitividade com a China. Para quem lidera organizações, o PCAST não muda o que precisa ser feito hoje. Muda a probabilidade dos cenários de amanhã. A composição torna mais provável um regime regulatório americano light-touch e mais improvável uma regulação restritiva no estilo europeu. Mas "mais provável" não é certeza — e governança corporativa se constrói sobre certezas, não sobre apostas. O custo de monitorar e se preparar para múltiplos cenários é marginal. O custo de apostar no cenário errado continua sendo significativo.