Erro Context Too Long — Limite de Tokens
Como resolver erro de contexto muito longo no OpenClaw. Limites de tokens e otimização.
⏱️ 2 min de leitura
Erro: Context Too Long
A conversa ficou grande demais para o modelo processar. Veja como resolver.
O Que Significa
Error: Context length exceeded
Error: Maximum context length is 200000 tokens
Error: This model's maximum context length is 128000 tokens
A soma de todas as mensagens + resposta ultrapassa o limite do modelo.
Limites por Modelo
| Modelo | Limite de Contexto |
|---|---|
| Claude 3.5 Sonnet | 200K tokens |
| Claude 3 Opus | 200K tokens |
| Claude 3 Haiku | 200K tokens |
| GPT-4 Turbo | 128K tokens |
| GPT-4o | 128K tokens |
| GPT-3.5 | 16K tokens |
Causas Comuns
1. Conversa Muito Longa
Histórico de mensagens acumulado.
2. Arquivo Grande
Enviou documento/código muito extenso.
3. Memória Muito Grande
MEMORY.md com muito conteúdo.
4. Muitas Tools
Contexto de ferramentas ocupando espaço.
Soluções
Solução Imediata
"Limpe o contexto e comece de novo"
Ou reinicie o gateway:
openclaw gateway restart
Configurar Limite de Histórico
# config.yaml
session:
max_messages: 50 # Últimas 50 mensagens
max_tokens: 100000 # Limite de tokens
Compactar Conversa
"Resuma nossa conversa até aqui em bullets"
Depois limpe e cole o resumo.
Processar Arquivo em Partes
Em vez de:
"Analise este arquivo de 10MB"
Faça:
"Analise as primeiras 1000 linhas"
"Agora analise linhas 1000-2000"
Otimizar Memória
Reduza o MEMORY.md:
"Resuma MEMORY.md mantendo só o essencial"
Prevenção
1. Limite Automático
# config.yaml
context:
auto_truncate: true
keep_recent: 20 # Mensagens recentes
keep_system: true # Mantém system prompt
2. Resumo Automático
context:
auto_summarize: true
summarize_after: 30 # Após 30 mensagens
3. Arquivos Grandes
Para arquivos grandes, use processamento em chunks:
"Processe arquivo.txt em partes de 5000 linhas"
Estimativa de Tokens
Aproximadamente:
- 1 token ≈ 4 caracteres em inglês
- 1 token ≈ 2-3 caracteres em português
- 1000 tokens ≈ 750 palavras
Verificar Uso
"Quantos tokens estamos usando?"
Por Cenário
Análise de Código
# Em vez de todo o projeto
"Liste os arquivos principais"
"Analise src/main.py"
"Agora analise src/utils.py"
Documentos Longos
# PDF de 100 páginas
"Resuma as páginas 1-20"
"Resuma as páginas 21-40"
...
"Compile os resumos em um overview"
Conversa Longa
# Após muitas mensagens
"Resuma os pontos principais da nossa discussão"
# Salve o resumo
# Limpe contexto
# Cole resumo e continue
Modelos com Mais Contexto
Se precisa de contexto grande regularmente:
| Necessidade | Modelo Recomendado |
|---|---|
| < 16K tokens | Qualquer |
| 16-128K tokens | GPT-4 Turbo, Claude |
| 128-200K tokens | Claude 3.x |