Assistente Perde Contexto em Conversas Longas
Resolva perda de contexto em conversas longas no OpenClaw: memória, summarização, contexto.
Sintomas
O assistente esquece o que foi dito anteriormente na conversa ou repete perguntas.
Se você está enfrentando esse problema, siga as soluções abaixo em ordem de probabilidade.
Diagnóstico Rápido
Antes de tentar as soluções, colete informações:
# Status geral do OpenClaw
openclaw status
# Logs recentes
openclaw logs --tail 50
# Versão atual
openclaw --version
Soluções
🔴 Janela de contexto excedida
Prioridade: Alta
Modelo tem limite de tokens. Use modelo com contexto maior: Claude (200K), GPT-4o (128K), Gemini (1M).
🔴 Ative summarização automática
Prioridade: Alta
Configure auto_summarize: true e summarize_after_messages: 20. Resumo é injetado no contexto.
🟡 Configure memória persistente
Prioridade: Média
Ative memory.md: memory_enabled: true. Informações importantes são salvas entre sessões.
🟡 Reduza system prompt
Prioridade: Média
System prompt grande ocupa contexto. Mantenha abaixo de 1000 tokens.
Ainda Com Problemas?
Se nenhuma solução acima resolveu:
- Colete logs detalhados:
openclaw logs --level debug --tail 200 > debug.log - Verifique a versão:
openclaw --version— considere atualizar para a última versão - Busque na comunidade: Discord do OpenClaw — outros usuários podem ter resolvido
- Abra uma issue: GitHub Issues com logs e passos para reproduzir
Artigos Relacionados
- Troubleshooting Geral — índice de todos os problemas
- Guia de Instalação — reinstalar pode resolver problemas persistentes
- FAQ Técnico — perguntas frequentes técnicas
- Guia de Segurança — configurações de segurança