A Anthropic está facilitando a migração de usuários de outras plataformas de inteligência artificial (IA) para o seu modelo Claude. Uma atualização recente disponibiliza o recurso de memória do Claude para todos os usuários, inclusive os do plano gratuito. Além disso, a empresa lançou um novo prompt e uma ferramenta dedicada para importar dados de outros chatbots.
O objetivo principal é permitir que usuários do ChatGPT (OpenAI) ou Gemini (Google), por exemplo, transfiram rapidamente os dados que suas IAs preferidas coletaram sobre eles para o Claude. Assim, evitam ter que “recomeçar” a ensinar ao Claude o contexto e o histórico que seus chatbots anteriores já conheciam.
Essa funcionalidade de importar e exportar memórias do Claude já estava disponível desde outubro, quando a Anthropic também lançou a opção para os usuários **ativarem a memória do Claude**. Anteriormente, esse recurso era exclusivo para assinantes pagos. Agora, todos podem ativá-lo acessando “configurações” e depois “capacidades”.
Neste mesmo menu, os usuários encontrarão a nova ferramenta de importação de memória. O processo envolve copiar um prompt pré-escrito para sua IA anterior e, em seguida, copiar a resposta dessa IA de volta para a ferramenta de importação do Claude. O processo é simples e intuitivo, facilitando a transferência de informações.
A Anthropic está lançando essa ferramenta aprimorada de importação de memória em um momento em que o Claude está ganhando popularidade. Essa crescente demanda é impulsionada por ferramentas como o **Claude Code** e o **Claude Cowork**, que otimizam tarefas de programação e colaboração, respectivamente.
No mês passado, a Anthropic lançou seus novos modelos **Opus 4.6** e **Sonnet 4.6**, que, segundo a empresa, são mais eficientes em programação e em tarefas complexas, como trabalhar com planilhas ou preencher formulários. Esses avanços reforçam o potencial do Claude como um assistente virtual completo e versátil.
A Anthropic também ganhou destaque recentemente ao **resistir às demandas do Pentágono** para flexibilizar as proteções em seus modelos de IA. A empresa declarou publicamente que estabeleceu “linhas vermelhas” em torno da vigilância em massa e de armas letais totalmente autônomas, demonstrando um compromisso com o uso ético e responsável da inteligência artificial.
