Token
O que são tokens em IA, como são contados e por que importam para custos e limites de contexto.
📅 02 de February de 2026
⏱️ 2 min de leitura
Token
Definição
Token é a unidade básica de processamento de texto em modelos de linguagem. Um token pode ser uma palavra, parte de uma palavra, ou um caractere, dependendo do tokenizador usado.
Em português, aproximadamente:
- 1 token ≈ 4 caracteres ou
- 1 token ≈ 0.75 palavras ou
- 100 tokens ≈ 75 palavras
Exemplos de Tokenização
Texto: "Inteligência Artificial"
Tokenização provável:
["Int", "elig", "ência", " Art", "ificial"]
= 5 tokens
Texto: "IA"
= 1 token (palavra curta comum)
Texto: "OpenClaw é incrível!"
["Open", "Cl", "aw", " é", " incrível", "!"]
= 6 tokens
Por que Tokens Importam
1. Custo
APIs de IA cobram por token processado:
- Entrada: Tokens do seu prompt
- Saída: Tokens da resposta gerada
Exemplo de preços (GPT-4):
- Entrada: $0.03 / 1K tokens
- Saída: $0.06 / 1K tokens
2. Limite de Contexto
Cada modelo tem um limite máximo de tokens:
| Modelo | Limite de Contexto |
|---|---|
| GPT-3.5 | 16K tokens |
| GPT-4 | 128K tokens |
| Claude 3 | 200K tokens |
| Gemini 1.5 | 1M tokens |
3. Velocidade
Mais tokens = mais tempo de processamento.
Como Estimar Tokens
Regra Rápida
- Inglês: 1 palavra ≈ 1.3 tokens
- Português: 1 palavra ≈ 1.5 tokens
- Código: Muito variável, geralmente mais tokens
Ferramentas
- OpenAI Tokenizer
- Comando
tiktokenem Python
Tokens no OpenClaw
O OpenClaw otimiza o uso de tokens:
- Comprime histórico automaticamente
- Resume conversas longas
- Remove contexto desnecessário
- Monitora custos em tempo real
Você pode ver seu uso de tokens com /status.
Dicas para Economizar Tokens
- Seja conciso - Prompts curtos gastam menos
- Use resumos - Em vez de textos completos
- Limite histórico - Configure tamanho máximo
- Escolha o modelo certo - Modelos menores para tarefas simples
Veja também: