Janela de Contexto (Context Window)

Quantidade máxima de texto que um modelo de IA consegue processar de uma vez

Janela de contexto é o limite de texto (medido em tokens) que um modelo de IA consegue “ver” e processar em uma única interação.

Como funciona

Pense como a memória de curto prazo da IA. Tudo que está dentro da janela, ela consegue usar para gerar respostas. O que está fora, ela não acessa.

Tamanhos típicos (2026)
  • GPT-4 Turbo: 128K tokens (~300 páginas)
  • Claude 3: 200K tokens (~500 páginas)
  • Gemini Pro: 1M tokens (~2.500 páginas)
Exemplo prático

Se você tem um contrato de 50 páginas e quer que a IA analise, ela precisa de uma janela grande o suficiente para processar todo o documento junto com sua pergunta.

Impacto no OpenClaw

O OpenClaw gerencia automaticamente o contexto:

  • MEMORY.md mantém informações persistentes
  • Skills carregam apenas dados relevantes
  • O gateway otimiza o uso de tokens
Custo

Janelas maiores custam mais porque processam mais tokens. Por isso, sistemas inteligentes como o OpenClaw otimizam o contexto para equilibrar custo e performance.