GPT-5.5 libera memory graph persistente entre contas enterprise — o que muda para quem depende de isolamento de dados
-
Lucas Ferreira - 24 Apr, 2026
A OpenAI liberou ontem, durante o DevDay Spring 2026, um recurso que vinha sendo pedido por clientes enterprise há meses: memória persistente compartilhada entre workspaces da mesma organização. A empresa chama de “memory graph” — uma camada que aprende com interações de um workspace e torna esse contexto disponível, com permissão, para outros workspaces ligados à mesma conta Team ou Enterprise. Para o time de produto, é um salto real de produtividade. Para o CISO, é uma segunda-feira complicada. O modelo mental de “cada workspace é uma ilha” acabou de ser redesenhado pela OpenAI, e quem depende de isolamento de dados entre departamentos ou entre clientes precisa entender rápido o que mudou.
O que exatamente a OpenAI lançou
O memory graph substitui a memória por conversa que a ChatGPT Enterprise já tinha. Antes, cada workspace funcionava como uma unidade fechada — memórias, system prompts customizados e histórico ficavam restritos àquela instância. Quem queria consolidar contexto entre times precisava exportar, mesclar e reingerir manualmente, ou construir um RAG externo.
Agora, o grafo existe acima dos workspaces. Ele indexa fatos, preferências, padrões de uso e até decisões tomadas em conversas anteriores. Cada nó do grafo tem uma ACL — controle de acesso definido por administrador — que determina quais workspaces podem ler aquela memória. Na prática, se o time jurídico definiu uma política de redação de contratos em um workspace dedicado, o time de vendas pode herdar essa política em suas próprias conversas sem que ninguém precise copiar e colar nada. O grafo é persistente entre sessões e entre usuários.
O modelo por trás é o GPT-5.5, anunciado no mesmo dia. Não é coincidência — o salto de capacidade do 5.5 para operar sobre memória estruturada é o que tornou o recurso viável. Com janelas de contexto efetivas maiores e custo por token mais baixo, carregar um grafo inteiro em cada inferência deixou de ser inviável economicamente.
O problema de isolamento que ninguém discutiu no keynote
A promessa comercial é óbvia: menos retrabalho, menos fragmentação de conhecimento, onboarding mais rápido de novos membros do time. Tudo verdade. O que não apareceu nos slides foi como fica a separação de dados para empresas que usam múltiplos workspaces exatamente porque precisam dessa separação.
Três cenários concretos onde isso dói.
Agências atendendo clientes concorrentes. Uma consultoria que presta serviço para Itaú e Bradesco historicamente opera com workspaces separados — e isso não é paranoia, é contrato. Se uma memória vaza, mesmo que acidentalmente, mesmo que via inferência estatística do modelo, existe um risco contratual e reputacional direto. A ACL do grafo ajuda, mas ACLs são configuração — e configuração falha.
Empresas com compliance por jurisdição. Uma multinacional com operação no Brasil, na União Europeia e nos EUA mantém workspaces separados porque o dado gerado em cada região tem regime legal distinto. LGPD no Brasil, GDPR na Europa, uma colcha de retalhos estadual nos EUA. Um memory graph que cruza essas fronteiras por padrão é um problema de transferência internacional de dados esperando para acontecer.
Separação entre áreas sensíveis. Jurídico e RH dentro da mesma empresa deliberadamente não compartilham contexto. Fusões e aquisições, processos trabalhistas, investigações internas — tudo depende de muralhas chinesas funcionando. O memory graph é o inverso de uma muralha chinesa. É um pátio compartilhado com regras de quem pode entrar.
O que a OpenAI diz sobre controle
Na documentação publicada ontem, a empresa detalha três camadas de controle. A primeira é o opt-in por workspace — o administrador precisa ativar o recurso explicitamente, e o default é desligado. A segunda é a ACL por nó — cada memória pode ser marcada como visível apenas para usuários, workspaces ou grupos específicos. A terceira é um audit log completo: toda leitura cross-workspace de memória é registrada e exportável via Compliance API.
É um trabalho sério. Mas é também, na prática, a mesma estrutura que rege IAM em cloud há 20 anos — e a gente sabe como IAM termina quando ninguém revisa. O Gartner estima que mais de 75% dos incidentes em nuvem vêm de configuração errada de permissão, não de vulnerabilidade de software. Não há razão para apostar que o memory graph será diferente.
O outro detalhe que merece atenção é a natureza da memória armazenada. Diferente de um banco de dados relacional, o grafo guarda representações vetoriais e sumários semânticos. Uma ACL pode impedir leitura direta de um nó específico, mas o modelo já foi treinado na sessão onde aquele dado apareceu — e pode regurgitar aproximações via inferência. Isso não é alucinação. É como memória humana funciona. E é um vetor de vazamento novo que o time de segurança precisa modelar.
O que fazer na próxima semana
Para CTOs, CISOs e arquitetos enterprise que já têm ChatGPT Enterprise ou Team rodando, três ações concretas.
Primeiro, manter o memory graph desligado até entender o escopo. O default é off, mas convém confirmar em cada workspace e documentar a decisão. Segundo, mapear quais workspaces de fato precisam de compartilhamento de contexto e quais existem justamente para separação. Não são a mesma pergunta. Terceiro, exigir do time de segurança um threat model específico para memória persistente cross-workspace antes de qualquer ativação — incluindo cenários de insider threat, desligamento de funcionário e request regulatório.
Para quem opera no Brasil, um ponto adicional. O Marco Legal de IA (PL 2338) ainda está em tramitação, mas a ANPD já sinalizou que memória persistente de sistemas de IA entra no escopo de tratamento de dados pessoais pela LGPD. Se a memória cruza workspaces, cruza também finalidades de tratamento — e finalidade é a base jurídica da LGPD. Ativar o recurso sem revisar DPIA e contratos de operador é correr risco desnecessário.
A parte que importa
O memory graph é tecnicamente impressionante e comercialmente inteligente. Resolve um problema real de fragmentação que qualquer um que usa ChatGPT em uma empresa grande já viveu. Mas ele também remove, por design, uma das poucas garantias arquiteturais que clientes enterprise tinham: a de que workspaces eram fronteiras duras.
Fronteiras duras viraram fronteiras configuráveis. Isso não é necessariamente ruim — é só diferente, e exige que o modelo de segurança acompanhe. A OpenAI fez o trabalho técnico. Cabe a quem implementa fazer o trabalho de governança antes de apertar o botão. Quem tratar o anúncio como mais uma feature de produtividade vai descobrir, em algum incidente futuro, que produtividade e compliance às vezes puxam cordas opostas.