Assistente Perde Contexto em Conversas Longas

Resolva perda de contexto em conversas longas no OpenClaw: memória, summarização, contexto.

Sintomas

O assistente esquece o que foi dito anteriormente na conversa ou repete perguntas.

Se você está enfrentando esse problema, siga as soluções abaixo em ordem de probabilidade.

Diagnóstico Rápido

Antes de tentar as soluções, colete informações:

# Status geral do OpenClaw
openclaw status

# Logs recentes
openclaw logs --tail 50

# Versão atual
openclaw --version
Soluções🔴 Janela de contexto excedida

Prioridade: Alta

Modelo tem limite de tokens. Use modelo com contexto maior: Claude (200K), GPT-4o (128K), Gemini (1M).

🔴 Ative summarização automática

Prioridade: Alta

Configure auto_summarize: true e summarize_after_messages: 20. Resumo é injetado no contexto.

🟡 Configure memória persistente

Prioridade: Média

Ative memory.md: memory_enabled: true. Informações importantes são salvas entre sessões.

🟡 Reduza system prompt

Prioridade: Média

System prompt grande ocupa contexto. Mantenha abaixo de 1000 tokens.

Ainda Com Problemas?

Se nenhuma solução acima resolveu:

  1. Colete logs detalhados: openclaw logs --level debug --tail 200 > debug.log
  2. Verifique a versão: openclaw --version — considere atualizar para a última versão
  3. Busque na comunidade: Discord do OpenClaw — outros usuários podem ter resolvido
  4. Abra uma issue: GitHub Issues com logs e passos para reproduzir
Artigos Relacionados