Respostas do Ollama com Qualidade Ruim
Melhore a qualidade das respostas de modelos locais no Ollama com OpenClaw.
Sintomas
Modelos locais via Ollama geram respostas genéricas, irrelevantes ou com erros em português.
Se você está enfrentando esse problema, siga as soluções abaixo em ordem de probabilidade.
Diagnóstico Rápido
Antes de tentar as soluções, colete informações:
# Status geral do OpenClaw
openclaw status
# Logs recentes
openclaw logs --tail 50
# Versão atual
openclaw --version
Soluções
🔴 Modelo muito pequeno
Prioridade: Alta
Modelos 3B e 7B são limitados em PT-BR. Use pelo menos 13B para qualidade aceitável, ou 70B para excelente.
🔴 Quantização excessiva
Prioridade: Alta
Q2/Q3 perde muita qualidade. Use Q5 ou Q6 para melhor balanço: ollama pull model:q5_K_M.
🟡 System prompt inadequado
Prioridade: Média
Modelos locais precisam de prompts mais explícitos. Adicione: ‘Responda sempre em português brasileiro.’
🟡 Temperatura alta
Prioridade: Média
Reduza temperatura para respostas mais focadas: ollama_temperature: 0.3.
Ainda Com Problemas?
Se nenhuma solução acima resolveu:
- Colete logs detalhados:
openclaw logs --level debug --tail 200 > debug.log - Verifique a versão:
openclaw --version— considere atualizar para a última versão - Busque na comunidade: Discord do OpenClaw — outros usuários podem ter resolvido
- Abra uma issue: GitHub Issues com logs e passos para reproduzir
Artigos Relacionados
- Troubleshooting Geral — índice de todos os problemas
- Guia de Instalação — reinstalar pode resolver problemas persistentes
- FAQ Técnico — perguntas frequentes técnicas
- Guia de Segurança — configurações de segurança