Benchmark Latência OpenClaw — Tempo de Resposta

Benchmark: Latência

Quanto tempo o OpenClaw leva para responder? Métricas detalhadas.

Metodologia

  • Ambiente: Ubuntu 22.04, 4 vCPU, 8GB RAM
  • Conexão: 100 Mbps fibra, São Paulo
  • Medição: 1000 requests por cenário
  • Métricas: p50, p95, p99

Por Modelo

Claude 3.5 Sonnet (Recomendado)

Cenáriop50p95p99
Resposta curta1.2s2.1s3.5s
Resposta média2.8s4.5s6.2s
Resposta longa5.1s8.3s12.1s
Com tool call3.2s5.8s8.4s

Claude 3 Haiku (Rápido)

Cenáriop50p95p99
Resposta curta0.4s0.8s1.2s
Resposta média0.9s1.5s2.1s
Resposta longa1.8s3.2s4.5s
Com tool call1.1s2.0s3.0s

GPT-4 Turbo

Cenáriop50p95p99
Resposta curta1.5s2.8s4.2s
Resposta média3.2s5.5s7.8s
Resposta longa6.2s10.1s14.5s
Com tool call4.0s7.2s10.5s

Por Canal

WhatsApp

  • Overhead: +200-500ms (websocket relay)
  • Delivery: 500-2000ms (rede do WhatsApp)
  • Total percebido: API time + ~1s

Telegram

  • Overhead: +50-100ms
  • Delivery: 100-500ms
  • Total percebido: API time + ~300ms

CLI

  • Overhead: ~10ms
  • Total percebido: ~= API time

Por Operação

Apenas Chat

Input → API → Output
Total: 1-5s dependendo do modelo

Com Tool Call

Input → API → Tool → API → Output
Total: 2-10s (depende da tool)

Com Memória

Input → Memory Search → API → Output
Overhead: +100-300ms para busca

Otimização

Use Modelo Adequado

# config.yaml
models:
  default: claude-3-5-sonnet  # Balanceado
  fast: claude-3-haiku        # Tarefas simples

Streaming

Streaming mostra resposta conforme gera:

streaming:
  enabled: true  # Percepção de velocidade

Cache

cache:
  enabled: true
  ttl: 3600  # 1 hora

Região da API

Latência varia por região:

  • US East: Melhor para Anthropic
  • Mais perto = mais rápido

Comparação com Alternativas

SoluçãoLatência Típica
OpenClaw1-5s
ChatGPT Web2-8s
Copilot1-3s
API direta0.5-3s

OpenClaw adiciona overhead mínimo (~100ms) sobre API direta.

Monitoramento

Ver Latência

"Qual a latência média das minhas respostas?"

Logs

openclaw logs | grep "latency\|ms"

Métricas

metrics:
  enabled: true
  endpoint: /metrics  # Prometheus format

Fatores que Afetam

  1. Tamanho do contexto - Mais tokens = mais lento
  2. Complexidade - Raciocínio leva tempo
  3. Horário - APIs ficam lentas em picos
  4. Sua conexão - Latência de rede
  5. Modelo - Haiku « Sonnet « Opus

Próximos Passos