Google Gemini agora importa seu histórico do ChatGPT e Claude — a guerra pela memória do usuário começou

Google Gemini agora importa seu histórico do ChatGPT e Claude — a guerra pela memória do usuário começou

O Google lançou ontem uma ferramenta que permite importar todo o seu histórico de conversas e “memórias” do ChatGPT e do Claude diretamente para o Gemini. É a primeira vez que uma Big Tech trata dados de interação com IA como um ativo portável — algo que você pode levar de uma plataforma para outra, como portabilidade numérica. O recurso não está disponível na Europa nem no Reino Unido por questões regulatórias. E é exatamente essa restrição que torna a notícia mais importante do que parece.

O que o Google fez, exatamente

A ferramenta está em Configurações > Importar dados, dentro do Gemini Advanced (plano pago). O processo é simples: você exporta seus dados do ChatGPT ou Claude usando as ferramentas de download que essas plataformas já oferecem, faz o upload no Gemini e o sistema processa tudo — conversas, preferências salvas e as chamadas “memórias”, aquelas inferências que a IA faz sobre você ao longo do tempo.

Na prática, o Gemini herda o contexto que você construiu em meses ou anos de uso de outra plataforma. Suas preferências de comunicação, seus projetos recorrentes, o tom que você prefere, os assuntos que mais discute. Em vez de começar do zero, você começa de onde parou — só que em outro lugar.

O Google não divulgou quantos usuários já utilizaram o recurso. Mas a mensagem estratégica é clara: “você não está preso ao ChatGPT.”

A guerra pela retenção

Os modelos de IA estão convergindo em qualidade. O GPT-5.4, o Gemini 3.1 Pro e o Claude Opus 4.5 empatam ou se revezam no topo dos benchmarks a cada mês. Se o produto é tecnicamente equivalente, o que impede um usuário de trocar de plataforma?

A resposta, até ontem, era a memória.

Quem usa ChatGPT há dois anos tem um assistente que sabe como essa pessoa trabalha. Tem contexto acumulado, preferências implícitas, padrões de interação que foram aprendidos ao longo de milhares de conversas. Trocar para outro modelo significa perder tudo isso e recomeçar do zero. É o lock-in mais eficaz que já existiu — porque não foi desenhado como lock-in. Foi consequência de uso.

O Google acabou de quebrar essa barreira. É como quando a portabilidade numérica chegou nas telecomunicações: de repente, trocar de operadora não significava mais perder seu número. O custo de troca despencou e a competição explodiu.

A diferença é que aqui o ativo não é um número de telefone. É um retrato comportamental detalhado de quem você é.

”Memória de IA” é o novo dado pessoal

Vale parar para pensar no que exatamente está sendo transferido. Não são apenas logs de conversa — perguntas e respostas que você digitou. São inferências. Conclusões que o modelo tirou sobre você a partir dessas conversas.

O ChatGPT pode ter registrado que você é desenvolvedor Python, que prefere respostas diretas, que trabalha com dados de saúde, que tem tendência a pedir refatoração antes de novas funcionalidades. Você nunca disse isso explicitamente. A IA inferiu.

Esse tipo de dado é mais íntimo que seu histórico de busca. O histórico de busca mostra o que você procurou. A memória de IA mostra quem você é — ou pelo menos quem a IA acha que você é. É um perfil comportamental construído em tempo real, alimentado por interações que muitas vezes são mais honestas do que conversas com outras pessoas.

Até dois anos atrás, esse dado não existia. Agora é um ativo que empresas de tecnologia querem que você transporte entre plataformas. A infraestrutura regulatória não acompanhou.

Por que a Europa ficou de fora

O recurso não está disponível no Espaço Econômico Europeu nem no Reino Unido. O Google não disse explicitamente que é por causa do GDPR, mas não precisa. A conta não fecha.

O GDPR exige consentimento informado para processamento de dados pessoais. Mas quando o Gemini importa memórias geradas pelo ChatGPT, quem é o controlador desses dados? A OpenAI, que gerou as inferências? O Google, que agora as processa? O usuário, que autorizou a transferência mas talvez não entenda o que está transferindo?

Dados inferidos — conclusões que uma IA tirou sobre você — vivem em uma zona cinzenta regulatória. O GDPR classifica “dados pessoais” como qualquer informação relativa a uma pessoa identificada ou identificável. Uma inferência sobre seu estilo de trabalho ou suas preferências de comunicação se encaixa? Provavelmente sim. Mas a cadeia de consentimento para transferir isso entre controladores é complexa o suficiente para que o Google tenha optado por não arriscar.

A Europa, como de costume, errou pelo lado da cautela. Neste caso, acho que acertou.

E o Brasil? A LGPD e o PL 2338

A pergunta que importa para quem lê do Brasil: quando esse recurso chegar aqui — e vai chegar —, estamos preparados?

A LGPD define dado pessoal de forma ampla: “informação relacionada a pessoa natural identificada ou identificável.” Em tese, memórias inferidas por IA se encaixam. Mas a lei foi escrita antes de esse tipo de dado existir. Não há menção a dados gerados por inferência de modelos de linguagem, nem a portabilidade de perfis comportamentais entre plataformas de IA.

O PL 2338, que regulamenta o uso de inteligência artificial no Brasil, está em tramitação no Senado. O projeto trata de classificação de risco, transparência algorítmica e direitos dos afetados. Mas portabilidade de dados de IA entre plataformas? Não está no texto.

Existe uma lacuna. Não é uma lacuna abstrata de interesse acadêmico. É uma lacuna prática: se o Google liberar a importação de memórias no Brasil amanhã, não há regra específica que defina como isso deve funcionar, que consentimentos são necessários, ou quem é responsável se dados inferidos estiverem errados.

A portabilidade é inevitável — as regras, não

A minha leitura é que o Google fez o movimento certo pelo motivo certo. Portabilidade de dados é pró-consumidor. Quebrar lock-in é pró-competição. Se os modelos são tecnicamente equivalentes, é o contexto acumulado que diferencia a experiência — e permitir que o usuário leve esse contexto consigo é a posição correta.

Mas a execução importa tanto quanto a intenção. Transportar memórias de IA entre plataformas sem um framework regulatório claro é construir uma autoestrada sem sinalização. A Europa entendeu isso e pisou no freio. O Brasil, que costuma importar tecnologia antes de importar regras, precisa prestar atenção.

Quem controla a memória controla o usuário. Até ontem, isso significava que a plataforma onde você começou era a plataforma onde ficava. Agora, a memória é portável — mas as regras sobre quem pode acessá-la, transferi-la e inferir a partir dela continuam presas em legislações que foram escritas para um mundo onde IA não sabia seu nome.

A guerra pela memória do usuário começou. As regras do jogo, não.