FAQ sobre Modelos de IA no OpenClaw
Perguntas frequentes sobre modelos de IA: Claude, GPT-4, Gemini, Ollama. Qual escolher e como configurar.
Qual modelo de IA é o melhor para português?
Claude 3.5 Sonnet e GPT-4o são os melhores em PT-BR. Para modelo local gratuito, Llama 3.1 70B com Ollama oferece boa qualidade.
Posso trocar de modelo a qualquer momento?
Sim! Basta mudar model no config.yaml e reiniciar. Não perde conversas ou configurações.
Qual a diferença entre Claude e GPT-4?
Claude é melhor em raciocínio longo e instruções complexas. GPT-4o é mais rápido e tem mais integrações. Ambos são excelentes em PT-BR.
Posso usar modelos diferentes para tarefas diferentes?
Sim! Configure model routing: modelo rápido (Haiku/GPT-4o Mini) para FAQ, modelo potente (Sonnet/GPT-4o) para análise.
Quanto custa usar cada modelo?
Claude Haiku: ~R$0.005/msg. GPT-4o Mini: ~R$0.003/msg. Claude Sonnet: ~R$0.05/msg. GPT-4o: ~R$0.04/msg. Ollama: R$0 (local).
Posso usar vários modelos ao mesmo tempo?
Sim, o OpenClaw suporta model routing. Defina regras: tipo de pergunta → modelo ideal. Economia de até 80% nos custos.
Como usar modelos locais (offline)?
Instale Ollama, baixe um modelo (ollama pull llama3.1), configure model: ollama/llama3.1 no config.yaml. Zero custo, zero dados na nuvem.
O que é ‘context window’ e por que importa?
É quanto o modelo ’lembra’ da conversa. Claude: 200K tokens (~150 páginas). GPT-4o: 128K tokens. Gemini: 1M tokens. Maior = conversas mais longas.
Não encontrou sua resposta?
- FAQ Geral — perguntas básicas sobre o OpenClaw
- FAQ Técnico — problemas técnicos e soluções
- Troubleshooting — guias de solução de problemas
- Comunidade Discord — pergunte para outros usuários
- GitHub Issues — reporte bugs