Modelo Ollama Não Carrega

Resolva problemas ao carregar modelos locais no Ollama com OpenClaw: RAM, download, configuração.

Sintomas

O Ollama não carrega o modelo ou demora excessivamente, causando timeout no OpenClaw.

Se você está enfrentando esse problema, siga as soluções abaixo em ordem de probabilidade.

Diagnóstico Rápido

Antes de tentar as soluções, colete informações:

# Status geral do OpenClaw
openclaw status

# Logs recentes
openclaw logs --tail 50

# Versão atual
openclaw --version
Soluções🔴 RAM insuficiente

Prioridade: Alta

Modelo 7B precisa de ~6GB RAM livre. Verifique: free -h. Feche outros apps ou use modelo menor (3B).

🔴 Download incompleto

Prioridade: Alta

Remova e baixe novamente: ollama rm llama3.1 && ollama pull llama3.1.

🔴 Ollama não está rodando

Prioridade: Alta

Inicie o serviço: ollama serve (Linux/Mac) ou abra o app Ollama (Mac). Verifique: curl localhost:11434.

🟡 Porta incorreta

Prioridade: Média

Padrão é 11434. Se mudou, atualize ollama_endpoint: http://localhost:PORTA no config.yaml.

Ainda Com Problemas?

Se nenhuma solução acima resolveu:

  1. Colete logs detalhados: openclaw logs --level debug --tail 200 > debug.log
  2. Verifique a versão: openclaw --version — considere atualizar para a última versão
  3. Busque na comunidade: Discord do OpenClaw — outros usuários podem ter resolvido
  4. Abra uma issue: GitHub Issues com logs e passos para reproduzir
Artigos Relacionados