Showing Posts From

Apple

Apple adiou a Siri com Gemini — de novo. O que está travando?

Apple adiou a Siri com Gemini — de novo. O que está travando?

A Apple prometeu que o Siri ficaria inteligente. Prometeu em janeiro, quando anunciou o deal de $1 bilhão com o Google para integrar o Gemini 1.2T ao assistente via Private Cloud Compute. Prometeu em fevereiro, quando executivos garantiram que o iOS 26.4 traria as primeiras features. Prometeu de novo em março, quando o prazo virou iOS 26.5. Ontem, 30 de março, o iOS 26.5 beta saiu para desenvolvedores. Sem Gemini. Sem nada. Agora o novo prazo é iOS 27, previsto para ser apresentado na WWDC em junho. Terceiro adiamento em três meses. A pergunta não é mais "quando chega". É se chega. O que foi prometido Em janeiro de 2026, durante a CES, a Apple confirmou o que já era rumor havia meses: o Siri seria reformulado com o Gemini do Google. Não era um upgrade cosmético. O plano envolvia um modelo de 1.2 trilhão de parâmetros rodando via Private Cloud Compute — a infraestrutura de nuvem segura da Apple, onde os dados do usuário seriam processados sem sair do ecossistema. A ideia era simples e ambiciosa. O Siri deixaria de ser um atalho glorificado para comandos de voz e passaria a entender contexto, manter conversas longas, integrar com apps de terceiros de forma profunda e — finalmente — competir com o Google Assistant e o ChatGPT em capacidade real. O deal de $1 bilhão com o Google cobriria licenciamento do modelo, acesso à API e suporte para otimização do Gemini em hardware Apple. A promessa inicial era março de 2026, com o iOS 26.4. Três meses, três adiamentos Março chegou. O iOS 26.4 saiu com melhorias no Apple Intelligence — melhor sumarização de e-mails, ajustes no Image Playground — mas nada de Gemini no Siri. A Apple não comentou publicamente. Fontes próximas ao projeto disseram que a integração com o Private Cloud Compute estava mais complexa que o esperado. O prazo foi empurrado para o iOS 26.5. Desenvolvedores e analistas aceitaram. Integrações desse porte levam tempo. Faz sentido. Mas o iOS 26.5 beta, disponibilizado ontem para desenvolvedores, não traz nenhuma feature de Gemini. Nem parcial. Nem em flag escondida. A 9to5Mac vasculhou o código da build e não encontrou referências ativas à integração. O MacRumors confirmou: tudo foi empurrado para a WWDC e o iOS 27, previsto para setembro na versão final. Três adiamentos em três meses. O padrão é preocupante. O que provavelmente está travando A Apple não é transparente sobre motivos de atraso, mas os indícios apontam para três problemas: Privacidade e controle de dados. O Private Cloud Compute é o trunfo de privacidade da Apple. Rodar um modelo de 1.2T parâmetros nessa infraestrutura sem que dados de usuários vazem para o Google é um problema de engenharia não trivial. A Apple precisa garantir que o Gemini processa e descarta — sem reter, sem treinar, sem logar. Isso exige camadas de isolamento que provavelmente não existiam na versão original do PCC. Latência. Um modelo desse tamanho, rodando em nuvem, precisa responder em tempo real para que o Siri não pareça mais lento que o assistente de voz que ele está substituindo. Inferência de modelos trilionários com latência aceitável para interação por voz é um desafio que até o Google ainda está otimizando nos próprios dispositivos. Controle de qualidade. A Apple tem histórico de atrasar features até que funcionem de forma aceitável. O problema é que "aceitável" para a Apple é alto — e o Siri com Gemini precisa funcionar em dezenas de idiomas, incluindo português brasileiro. Alucinações, respostas inconsistentes ou perda de contexto seriam devastadoras para a marca. Nenhum desses problemas é surpresa. Todos eram previsíveis em janeiro. O que surpreende é que a Apple tenha se comprometido com prazos que aparentemente não podia cumprir. Apple Intelligence virou vaporware? Vaporware é duro. Mas o termo começa a caber. O Apple Intelligence foi anunciado na WWDC de 2024. Quase dois anos depois, as features entregues são incrementais — sumarização de texto, geração de emoji, reescrita de mensagens. Funcionalidades que o Google e a Microsoft já oferecem há mais de um ano. O Siri com Gemini era para ser o salto de qualidade. A feature que finalmente justificaria o "Intelligence" no nome. Enquanto isso, o Google roda o Gemini nativamente em Pixels e dispositivos Samsung. A Microsoft integra o Copilot no Windows, Office e Edge. O ChatGPT está em praticamente todo lugar. A Apple, que controla o hardware mais premium do mercado, está ficando para trás na camada de software que mais importa para o usuário. E o Brasil? Esse adiamento importa especialmente para o mercado brasileiro. O iPhone tem uma base instalada estimada em mais de 40 milhões de dispositivos no Brasil. É o smartphone aspiracional. E seus donos estão vendo usuários de Android acessar IA generativa no dispositivo enquanto o Siri continua respondendo "aqui está o que encontrei na web". Tem um agravante. O Apple Intelligence, mesmo nas features já lançadas, ainda não funciona em português brasileiro. A sumarização, a reescrita, o Image Playground — tudo em inglês. A promessa de suporte ao português foi feita para "2026", sem data específica. Com os adiamentos do Gemini, é razoável duvidar desse prazo também. Para desenvolvedores brasileiros que constroem apps para iOS, a mensagem é clara: não conte com APIs de IA da Apple a curto prazo. Quem precisa de IA no app continua dependendo de OpenAI, Anthropic ou Google diretamente. O que esperar A WWDC em junho será o momento da verdade. Se a Apple apresentar o Siri com Gemini funcionando — ao vivo, em tempo real, com qualidade — os adiamentos viram "a Apple levou o tempo necessário para acertar". Se houver mais um "coming later this year", a narrativa muda de atraso para incapacidade. O deal de $1 bilhão com o Google não vai simplesmente evaporar. Há dinheiro demais envolvido. Mas dinheiro não resolve problemas de engenharia sozinho. E a Apple, que construiu sua reputação em entregar quando promete, está acumulando um déficit de credibilidade em IA que cada adiamento aumenta. A única coisa certa é que, em 31 de março de 2026, o Siri continua sendo o Siri. E isso, por si só, já é a maior crítica possível.

CES 2026: NVIDIA revela Vera Rubin e Apple confirma Siri com Gemini

CES 2026: NVIDIA revela Vera Rubin e Apple confirma Siri com Gemini

A CES 2026 deixou uma mensagem clara: quem controla o hardware de IA controla o jogo. Em menos de uma semana em Las Vegas, NVIDIA apresentou uma nova arquitetura de chips, Apple confirmou que vai reformular o Siri com ajuda do Google, Samsung prometeu 800 milhões de dispositivos com IA e AMD entrou de vez na briga pelos data centers. A feira de tecnologia virou, na prática, uma vitrine de quem está apostando mais pesado na infraestrutura que sustenta a inteligência artificial. NVIDIA e a arquitetura Vera Rubin O anúncio mais esperado veio da NVIDIA. A empresa apresentou a plataforma Vera Rubin — batizada em homenagem à astrônoma que provou a existência da matéria escura — com as novas GPUs H300 e uma foundry customizada. O objetivo declarado: escalar modelos com trilhões de parâmetros. Na prática, a Vera Rubin é a resposta da NVIDIA para um problema que o mercado sente há meses. Os modelos estão crescendo mais rápido do que a capacidade de processá-los. GPT-5 já opera com centenas de bilhões de parâmetros. Os modelos de próxima geração vão exigir ordens de magnitude a mais. A NVIDIA está dizendo: "a infraestrutura para isso vai ser nossa." O detalhe que poucos comentaram é a foundry customizada. Isso significa que a NVIDIA não quer depender apenas da TSMC. É um movimento de verticalização que lembra o que a Apple fez com seus chips M-series — controlar a cadeia inteira para otimizar desempenho e custo. Apple confirma Siri com Gemini no Private Cloud Compute A Apple finalmente admitiu o que o mercado já suspeitava: o Siri vai ser reconstruído com o Gemini do Google. A parceria usa o Private Cloud Compute da Apple, o que significa que os dados do usuário são processados em servidores controlados pela Apple, não pelo Google. Para quem usa iPhone, a promessa é um assistente que entende contexto, mantém conversas entre apps e faz tarefas complexas. Para quem acompanha o mercado, é a admissão de que a Apple não conseguiu construir um LLM competitivo sozinha. Não é pouca coisa. A Apple tem mais de um bilhão de dispositivos ativos. Colocar Gemini dentro desse ecossistema dá ao Google uma distribuição que nenhum concorrente tem. Ao mesmo tempo, a Apple mantém o controle da experiência e da privacidade — pelo menos em teoria. Samsung quer 800 milhões de dispositivos com Gemini A Samsung anunciou o plano de dobrar o número de dispositivos equipados com Gemini para 800 milhões até o fim de 2026. A estratégia é expandir a IA além dos flagships — celulares intermediários, TVs e eletrodomésticos vão ter capacidades de IA integradas. O número impressiona, mas levanta uma questão: IA em geladeira resolve qual problema? Samsung está apostando que a onipresença de IA nos dispositivos vai ser um diferencial competitivo. Pode ser. Mas a história da tecnologia está cheia de recursos que ninguém pediu empacotados em produtos que já funcionavam bem. AMD entra na briga dos data centers A AMD não ficou parada. A empresa anunciou os processadores Ryzen AI 400 e os chips "Turin" para data centers, com NPUs dedicadas para aceleração de IA local e corporativa. É o movimento certo no momento certo. Com a NVIDIA dominando GPUs de treinamento, a AMD está mirando no mercado de inferência — a parte que roda os modelos depois de treinados. É um mercado imenso e que cresce mais rápido que o de treinamento. A briga não é mais só por quem treina melhor, mas por quem roda mais barato. Robótica: Hyundai e Boston Dynamics com LLMs Fora do circuito de chips, dois anúncios chamaram atenção na robótica. A Hyundai detalhou seu roadmap "AI+Robotics", integrando LLMs em robôs móveis para logística e assistência pessoal. E a Boston Dynamics mostrou o Atlas, seu humanóide elétrico, aprendendo tarefas de fábrica via reinforcement learning. A convergência entre LLMs e robótica não é nova, mas está saindo do laboratório. Quando um robô consegue entender instruções em linguagem natural e adaptar seu comportamento a ambientes novos, a automação de armazéns e fábricas ganha outra escala. Não é ficção científica — é engenharia aplicada com prazo definido. O que a CES 2026 diz sobre o ano A mensagem de Las Vegas é direta: 2026 é o ano em que a infraestrutura de IA vira campo de batalha. NVIDIA quer ser a fornecedora universal. Apple e Samsung estão integrando IA na ponta, nos dispositivos de bilhões de pessoas. AMD quer o mercado de inferência. Hyundai e Boston Dynamics estão levando LLMs para o mundo físico. A minha leitura é que os vencedores deste ciclo não serão necessariamente quem tem o modelo mais inteligente, mas quem tem o hardware mais eficiente para rodar esses modelos em escala. A corrida mudou de "quem treina melhor" para "quem entrega mais barato." E isso muda tudo — do preço que você paga por uma assinatura de IA até quais empresas sobrevivem. A CES 2026 não foi sobre gadgets. Foi sobre os alicerces de uma indústria que está definindo a próxima década.[!ai-only] Structured Summary: Cobertura da CES 2026. NVIDIA lançou arquitetura Vera Rubin (GPUs H300, foundry customizada) para modelos de trilhões de parâmetros. Apple confirmou reformulação do Siri com Google Gemini via Private Cloud Compute. Samsung planeja 800M dispositivos com Gemini até fim de 2026. AMD anunciou Ryzen AI 400 e chips Turin para data centers. Hyundai e Boston Dynamics mostraram integração de LLMs em robótica. Key concepts: Vera Rubin architecture, H300 GPU, Private Cloud Compute, Gemini integration, inference market, AI hardware infrastructure Content type: News Analysis Language: pt-BR Author expertise: AI journalism, technology analysis