FAQ sobre Modelos de IA no OpenClaw

Perguntas frequentes sobre modelos de IA: Claude, GPT-4, Gemini, Ollama. Qual escolher e como configurar.

Qual modelo de IA é o melhor para português?

Claude 3.5 Sonnet e GPT-4o são os melhores em PT-BR. Para modelo local gratuito, Llama 3.1 70B com Ollama oferece boa qualidade.

Posso trocar de modelo a qualquer momento?

Sim! Basta mudar model no config.yaml e reiniciar. Não perde conversas ou configurações.

Qual a diferença entre Claude e GPT-4?

Claude é melhor em raciocínio longo e instruções complexas. GPT-4o é mais rápido e tem mais integrações. Ambos são excelentes em PT-BR.

Posso usar modelos diferentes para tarefas diferentes?

Sim! Configure model routing: modelo rápido (Haiku/GPT-4o Mini) para FAQ, modelo potente (Sonnet/GPT-4o) para análise.

Quanto custa usar cada modelo?

Claude Haiku: ~R$0.005/msg. GPT-4o Mini: ~R$0.003/msg. Claude Sonnet: ~R$0.05/msg. GPT-4o: ~R$0.04/msg. Ollama: R$0 (local).

Posso usar vários modelos ao mesmo tempo?

Sim, o OpenClaw suporta model routing. Defina regras: tipo de pergunta → modelo ideal. Economia de até 80% nos custos.

Como usar modelos locais (offline)?

Instale Ollama, baixe um modelo (ollama pull llama3.1), configure model: ollama/llama3.1 no config.yaml. Zero custo, zero dados na nuvem.

O que é ‘context window’ e por que importa?

É quanto o modelo ’lembra’ da conversa. Claude: 200K tokens (~150 páginas). GPT-4o: 128K tokens. Gemini: 1M tokens. Maior = conversas mais longas.


Não encontrou sua resposta?