Respostas do Ollama com Qualidade Ruim

Melhore a qualidade das respostas de modelos locais no Ollama com OpenClaw.

Sintomas

Modelos locais via Ollama geram respostas genéricas, irrelevantes ou com erros em português.

Se você está enfrentando esse problema, siga as soluções abaixo em ordem de probabilidade.

Diagnóstico Rápido

Antes de tentar as soluções, colete informações:

# Status geral do OpenClaw
openclaw status

# Logs recentes
openclaw logs --tail 50

# Versão atual
openclaw --version
Soluções🔴 Modelo muito pequeno

Prioridade: Alta

Modelos 3B e 7B são limitados em PT-BR. Use pelo menos 13B para qualidade aceitável, ou 70B para excelente.

🔴 Quantização excessiva

Prioridade: Alta

Q2/Q3 perde muita qualidade. Use Q5 ou Q6 para melhor balanço: ollama pull model:q5_K_M.

🟡 System prompt inadequado

Prioridade: Média

Modelos locais precisam de prompts mais explícitos. Adicione: ‘Responda sempre em português brasileiro.’

🟡 Temperatura alta

Prioridade: Média

Reduza temperatura para respostas mais focadas: ollama_temperature: 0.3.

Ainda Com Problemas?

Se nenhuma solução acima resolveu:

  1. Colete logs detalhados: openclaw logs --level debug --tail 200 > debug.log
  2. Verifique a versão: openclaw --version — considere atualizar para a última versão
  3. Busque na comunidade: Discord do OpenClaw — outros usuários podem ter resolvido
  4. Abra uma issue: GitHub Issues com logs e passos para reproduzir
Artigos Relacionados