Erro Context Too Long — Limite de Tokens

Erro: Context Too Long

A conversa ficou grande demais para o modelo processar. Veja como resolver.

O Que Significa

Error: Context length exceeded
Error: Maximum context length is 200000 tokens
Error: This model's maximum context length is 128000 tokens

A soma de todas as mensagens + resposta ultrapassa o limite do modelo.

Limites por Modelo

ModeloLimite de Contexto
Claude 3.5 Sonnet200K tokens
Claude 3 Opus200K tokens
Claude 3 Haiku200K tokens
GPT-4 Turbo128K tokens
GPT-4o128K tokens
GPT-3.516K tokens

Causas Comuns

1. Conversa Muito Longa

Histórico de mensagens acumulado.

2. Arquivo Grande

Enviou documento/código muito extenso.

3. Memória Muito Grande

MEMORY.md com muito conteúdo.

4. Muitas Tools

Contexto de ferramentas ocupando espaço.

Soluções

Solução Imediata

"Limpe o contexto e comece de novo"

Ou reinicie o gateway:

openclaw gateway restart

Configurar Limite de Histórico

# config.yaml
session:
  max_messages: 50  # Últimas 50 mensagens
  max_tokens: 100000  # Limite de tokens

Compactar Conversa

"Resuma nossa conversa até aqui em bullets"

Depois limpe e cole o resumo.

Processar Arquivo em Partes

Em vez de:

"Analise este arquivo de 10MB"

Faça:

"Analise as primeiras 1000 linhas"
"Agora analise linhas 1000-2000"

Otimizar Memória

Reduza o MEMORY.md:

"Resuma MEMORY.md mantendo só o essencial"

Prevenção

1. Limite Automático

# config.yaml
context:
  auto_truncate: true
  keep_recent: 20  # Mensagens recentes
  keep_system: true  # Mantém system prompt

2. Resumo Automático

context:
  auto_summarize: true
  summarize_after: 30  # Após 30 mensagens

3. Arquivos Grandes

Para arquivos grandes, use processamento em chunks:

"Processe arquivo.txt em partes de 5000 linhas"

Estimativa de Tokens

Aproximadamente:

  • 1 token ≈ 4 caracteres em inglês
  • 1 token ≈ 2-3 caracteres em português
  • 1000 tokens ≈ 750 palavras

Verificar Uso

"Quantos tokens estamos usando?"

Por Cenário

Análise de Código

# Em vez de todo o projeto
"Liste os arquivos principais"
"Analise src/main.py"
"Agora analise src/utils.py"

Documentos Longos

# PDF de 100 páginas
"Resuma as páginas 1-20"
"Resuma as páginas 21-40"
...
"Compile os resumos em um overview"

Conversa Longa

# Após muitas mensagens
"Resuma os pontos principais da nossa discussão"
# Salve o resumo
# Limpe contexto
# Cole resumo e continue

Modelos com Mais Contexto

Se precisa de contexto grande regularmente:

NecessidadeModelo Recomendado
< 16K tokensQualquer
16-128K tokensGPT-4 Turbo, Claude
128-200K tokensClaude 3.x

Próximos Passos