Custo de API de IA Muito Alto
Reduza custos com API de IA no OpenClaw: caching, model routing, otimização de prompts.
Sintomas
A conta de API (OpenAI, Anthropic, Google) está muito alta e precisa ser otimizada.
Se você está enfrentando esse problema, siga as soluções abaixo em ordem de probabilidade.
Diagnóstico Rápido
Antes de tentar as soluções, colete informações:
# Status geral do OpenClaw
openclaw status
# Logs recentes
openclaw logs --tail 50
# Versão atual
openclaw --version
Soluções
🔴 Ative cache de respostas
Prioridade: Alta
Respostas idênticas para perguntas frequentes são cacheadas: response_cache: true.
🔴 Model routing (modelo certo para cada tarefa)
Prioridade: Alta
Use modelo barato (Haiku, GPT-4o Mini) para 80% das tarefas e premium apenas para complexas.
🔴 Reduza system prompt
Prioridade: Alta
Cada token do prompt é cobrado em toda mensagem. Otimize: openclaw prompt optimize.
🟡 Limite max_tokens
Prioridade: Média
Respostas mais curtas = menos custo. Configure max_tokens: 300 para a maioria das tarefas.
🟡 Use modelo local (Ollama)
Prioridade: Média
Para dados sensíveis ou volume alto, use Ollama — custo zero.
Ainda Com Problemas?
Se nenhuma solução acima resolveu:
- Colete logs detalhados:
openclaw logs --level debug --tail 200 > debug.log - Verifique a versão:
openclaw --version— considere atualizar para a última versão - Busque na comunidade: Discord do OpenClaw — outros usuários podem ter resolvido
- Abra uma issue: GitHub Issues com logs e passos para reproduzir
Artigos Relacionados
- Troubleshooting Geral — índice de todos os problemas
- Guia de Instalação — reinstalar pode resolver problemas persistentes
- FAQ Técnico — perguntas frequentes técnicas
- Guia de Segurança — configurações de segurança