Benchmark Latência OpenClaw — Tempo de Resposta

Benchmarks de latência do OpenClaw. Tempo de resposta por modelo, canal e tipo de operação.

Benchmark: Latência

Quanto tempo o OpenClaw leva para responder? Métricas detalhadas.

Metodologia
  • Ambiente: Ubuntu 22.04, 4 vCPU, 8GB RAM
  • Conexão: 100 Mbps fibra, São Paulo
  • Medição: 1000 requests por cenário
  • Métricas: p50, p95, p99
Por ModeloClaude 3.5 Sonnet (Recomendado)
Cenáriop50p95p99
Resposta curta1.2s2.1s3.5s
Resposta média2.8s4.5s6.2s
Resposta longa5.1s8.3s12.1s
Com tool call3.2s5.8s8.4s
Claude 3 Haiku (Rápido)
Cenáriop50p95p99
Resposta curta0.4s0.8s1.2s
Resposta média0.9s1.5s2.1s
Resposta longa1.8s3.2s4.5s
Com tool call1.1s2.0s3.0s
GPT-4 Turbo
Cenáriop50p95p99
Resposta curta1.5s2.8s4.2s
Resposta média3.2s5.5s7.8s
Resposta longa6.2s10.1s14.5s
Com tool call4.0s7.2s10.5s
Por CanalWhatsApp
  • Overhead: +200-500ms (websocket relay)
  • Delivery: 500-2000ms (rede do WhatsApp)
  • Total percebido: API time + ~1s
Telegram
  • Overhead: +50-100ms
  • Delivery: 100-500ms
  • Total percebido: API time + ~300ms
CLI
  • Overhead: ~10ms
  • Total percebido: ~= API time
Por OperaçãoApenas Chat
Input → API → Output
Total: 1-5s dependendo do modelo
Com Tool Call
Input → API → Tool → API → Output
Total: 2-10s (depende da tool)
Com Memória
Input → Memory Search → API → Output
Overhead: +100-300ms para busca
OtimizaçãoUse Modelo Adequado
# config.yaml
models:
  default: claude-3-5-sonnet  # Balanceado
  fast: claude-3-haiku        # Tarefas simples
Streaming

Streaming mostra resposta conforme gera:

streaming:
  enabled: true  # Percepção de velocidade
Cache
cache:
  enabled: true
  ttl: 3600  # 1 hora
Região da API

Latência varia por região:

  • US East: Melhor para Anthropic
  • Mais perto = mais rápido
Comparação com Alternativas
SoluçãoLatência Típica
OpenClaw1-5s
ChatGPT Web2-8s
Copilot1-3s
API direta0.5-3s

OpenClaw adiciona overhead mínimo (~100ms) sobre API direta.

MonitoramentoVer Latência
"Qual a latência média das minhas respostas?"
Logs
openclaw logs | grep "latency\|ms"
Métricas
metrics:
  enabled: true
  endpoint: /metrics  # Prometheus format
Fatores que Afetam
  1. Tamanho do contexto - Mais tokens = mais lento
  2. Complexidade - Raciocínio leva tempo
  3. Horário - APIs ficam lentas em picos
  4. Sua conexão - Latência de rede
  5. Modelo - Haiku « Sonnet « Opus
Próximos Passos