Token

O que são tokens em IA, como são contados e por que importam para custos e limites de contexto.

Token

Definição

Token é a unidade básica de processamento de texto em modelos de linguagem. Um token pode ser uma palavra, parte de uma palavra, ou um caractere, dependendo do tokenizador usado.

Em português, aproximadamente:

  • 1 token ≈ 4 caracteres ou
  • 1 token ≈ 0.75 palavras ou
  • 100 tokens ≈ 75 palavras
Exemplos de Tokenização
Texto: "Inteligência Artificial"

Tokenização provável:
["Int", "elig", "ência", " Art", "ificial"]
= 5 tokens

Texto: "IA"
= 1 token (palavra curta comum)

Texto: "OpenClaw é incrível!"
["Open", "Cl", "aw", " é", " incrível", "!"]
= 6 tokens
Por que Tokens Importam1. Custo

APIs de IA cobram por token processado:

  • Entrada: Tokens do seu prompt
  • Saída: Tokens da resposta gerada

Exemplo de preços (GPT-4):

  • Entrada: $0.03 / 1K tokens
  • Saída: $0.06 / 1K tokens
2. Limite de Contexto

Cada modelo tem um limite máximo de tokens:

ModeloLimite de Contexto
GPT-3.516K tokens
GPT-4128K tokens
Claude 3200K tokens
Gemini 1.51M tokens
3. Velocidade

Mais tokens = mais tempo de processamento.

Como Estimar TokensRegra Rápida
  • Inglês: 1 palavra ≈ 1.3 tokens
  • Português: 1 palavra ≈ 1.5 tokens
  • Código: Muito variável, geralmente mais tokens
FerramentasTokens no OpenClaw

O OpenClaw otimiza o uso de tokens:

  • Comprime histórico automaticamente
  • Resume conversas longas
  • Remove contexto desnecessário
  • Monitora custos em tempo real

Você pode ver seu uso de tokens com /status.

Dicas para Economizar Tokens
  1. Seja conciso - Prompts curtos gastam menos
  2. Use resumos - Em vez de textos completos
  3. Limite histórico - Configure tamanho máximo
  4. Escolha o modelo certo - Modelos menores para tarefas simples

Veja também: