Janela de Contexto (Context Window)
Quantidade máxima de texto que um modelo de IA consegue processar de uma vez
📅 02 de February de 2026
⏱️ 1 min de leitura
Janela de contexto é o limite de texto (medido em tokens) que um modelo de IA consegue “ver” e processar em uma única interação.
Como funciona
Pense como a memória de curto prazo da IA. Tudo que está dentro da janela, ela consegue usar para gerar respostas. O que está fora, ela não acessa.
Tamanhos típicos (2026)
- GPT-4 Turbo: 128K tokens (~300 páginas)
- Claude 3: 200K tokens (~500 páginas)
- Gemini Pro: 1M tokens (~2.500 páginas)
Exemplo prático
Se você tem um contrato de 50 páginas e quer que a IA analise, ela precisa de uma janela grande o suficiente para processar todo o documento junto com sua pergunta.
Impacto no OpenClaw
O OpenClaw gerencia automaticamente o contexto:
- MEMORY.md mantém informações persistentes
- Skills carregam apenas dados relevantes
- O gateway otimiza o uso de tokens
Custo
Janelas maiores custam mais porque processam mais tokens. Por isso, sistemas inteligentes como o OpenClaw otimizam o contexto para equilibrar custo e performance.