Setup Simples: OpenClaw + Ollama no Seu PC (15 Minutos)

O jeito mais fácil de rodar IA 100% local. Instale Ollama, baixe um modelo, configure OpenClaw. 15 minutos, zero cloud, zero custo de API.

⏱️ 15 minutos · 🎯 Iniciante · 🔒 100% Local

O jeito mais fácil de ter IA 100% no seu computador. Sem Docker, sem cloud, sem API paga. Só dois programas: Ollama (roda o modelo de IA) e OpenClaw (conecta com WhatsApp, Telegram, etc).

TL;DR — Só os Comandos
# 1. Instalar Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 2. Baixar modelo (2GB, ~2 minutos)
ollama pull llama3.2:3b

# 3. Instalar OpenClaw
npm install -g openclaw@latest

# 4. Configurar (escolha "ollama" como provider)
openclaw onboard --install-daemon

Pronto! Seu assistente IA agora roda 100% local.


O Que Você Vai Ter
┌──────────┐     ┌──────────┐     ┌──────────────┐
│ Você     │ ──► │ OpenClaw │ ──► │ Ollama       │
│ WhatsApp │     │ Gateway  │     │ Llama 3.2 3B │
│ Terminal │     │ :3434    │     │ :11434       │
└──────────┘     └──────────┘     └──────────────┘
       Tudo no seu PC. Nenhum dado sai.

Resultado: Um assistente de IA que responde no WhatsApp, Telegram ou Discord — sem que nenhuma mensagem passe por servidores externos.


Requisitos
RequisitoMínimoRecomendado
RAM8GB16GB
Disco5GB livres10GB livres
CPUQualquer moderno8+ cores
GPUNão precisaNVIDIA 6GB+ (acelera muito)
Node.js22+24 LTS
SistemamacOS, Linux, Windows WSL2Linux 64-bit

💡 Mac M1/M2/M3? Excelente para IA local! A GPU integrada acelera o Ollama automaticamente.


Passo 1: Instalar Ollama

Ollama é o motor que roda modelos de IA localmente. Instalação em 1 comando:

Linux:

curl -fsSL https://ollama.com/install.sh | sh

macOS:

# Com Homebrew
brew install ollama

# Ou baixe: https://ollama.com/download/mac

Windows (WSL2):

# Dentro do WSL2 Ubuntu:
curl -fsSL https://ollama.com/install.sh | sh

Verifique:

ollama --version
# Deve mostrar: ollama version 0.x.x

Passo 2: Baixar um Modelo

Agora baixe o modelo de IA que vai rodar no seu computador:

# Recomendado para começar (2GB, roda em qualquer PC com 8GB RAM)
ollama pull llama3.2:3b
Qual modelo escolher?
ModeloTamanhoRAM UsadaVelocidadeQualidadePara Quem
llama3.2:3b2GB~3GBRápidoBoaIniciantes, PCs modestos
llama3.1:8b4.7GB~6GBMédioMuito boaUso geral, 16GB RAM
qwen2.5:7b4.4GB~6GBMédioMuito boaBom em português
qwen2.5:14b8.9GB~12GBLentoExcelenteCom GPU, 16GB+ RAM
phi3:mini2.3GB~3GBMuito rápidoRazoávelRaspberry Pi, PCs fracos

Dica: Comece com llama3.2:3b. Depois você baixa outros e alterna facilmente.


Passo 3: Testar o Ollama

Antes de conectar ao OpenClaw, confirme que o Ollama funciona:

ollama run llama3.2:3b "Olá! Me diga uma curiosidade sobre o Brasil"

Deve responder em alguns segundos. Se respondeu, o motor de IA está funcionando.

Não respondeu?

  • “command not found” → Feche e abra o terminal
  • “model not found” → Execute ollama pull llama3.2:3b primeiro
  • Lento demais → Tente phi3:mini (menor e mais rápido)

Passo 4: Instalar OpenClaw

Se ainda não tem, instale Node.js 22+ e depois o OpenClaw:

# Se não tem Node.js:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash
# Feche e abra o terminal, depois:
nvm install 24

# Instalar OpenClaw
npm install -g openclaw@latest

Passo 5: Configurar OpenClaw para Ollama

Execute o wizard e escolha Ollama como provider de IA:

openclaw onboard --install-daemon

Quando perguntar qual provider/modelo usar, selecione:

  • Provider: Ollama
  • Modelo: llama3.2:3b (ou o que você baixou)
  • Canal: WhatsApp, Telegram, ou o que preferir
Configuração manual (alternativa)

Se preferir editar o arquivo de configuração diretamente:

nano ~/clawd/config.yaml
# config.yaml — 100% Local
agents:
  defaults:
    model:
      primary: "ollama/llama3.2:3b"

ollama:
  baseUrl: "http://localhost:11434"
  timeout: 120  # modelos locais podem ser mais lentos

Reinicie o gateway:

openclaw gateway restart

Passo 6: Testar Tudo Junto

Conecte seu canal (WhatsApp, Telegram, etc) e envie uma mensagem:

“Olá! Quem é você?”

Se respondeu — parabéns! Você tem um assistente de IA 100% local funcionando. Nenhum dado saiu do seu computador.

# Verificar status
openclaw gateway status
# Deve mostrar: running

# Ver logs em tempo real
openclaw gateway logs -f
🎉 Funcionou! Seu Assistente IA é 100% Local

Nenhuma mensagem sai do seu PC. Zero custo de API. Use quanto quiser.

Próximos passos:


Modo Híbrido (Opcional)

Quer o melhor dos dois mundos? Use Ollama para tarefas simples e Claude/GPT para tarefas complexas:

# config.yaml — Modo Híbrido
agents:
  defaults:
    model:
      primary: "ollama/llama3.2:3b"      # Padrão: local e grátis
      fallback: "anthropic/claude-sonnet"  # Backup: melhor qualidade

  rules:
    - match: "resumir|traduzir|lembrete"
      model: "ollama/llama3.2:3b"          # Tarefas simples → local
    - match: "analisar|código|complexo"
      model: "anthropic/claude-sonnet"     # Tarefas complexas → API

Saiba mais: Como Usar OpenClaw com Modelos Locais


Dicas de PerformanceAcelerando com GPU

Se tem uma placa NVIDIA:

# Verificar se Ollama detectou sua GPU
ollama ps
# Deve mostrar "gpu" na coluna de processador

O Ollama detecta GPUs NVIDIA automaticamente. Macs M1/M2/M3 também usam GPU Metal automaticamente.

Otimizações
  • Feche programas pesados enquanto usa — o modelo precisa de RAM
  • Use quantização Q4 (padrão) para melhor velocidade vs qualidade
  • Limite o contexto se ficar lento: num_ctx: 2048 no config (padrão é 4096)
  • SSD é importante — a primeira carga do modelo lê do disco

Troubleshooting
Ollama não inicia
# Verificar se está rodando
systemctl status ollama    # Linux
brew services info ollama  # macOS

# Reiniciar
systemctl restart ollama   # Linux
brew services restart ollama  # macOS
Modelo muito lento
  • Troque para um modelo menor: ollama pull phi3:mini
  • Atualize o config: primary: "ollama/phi3:mini"
  • Verifique RAM livre: free -h (Linux) ou Activity Monitor (macOS)
  • Feche abas do navegador — Chrome consome muita RAM
Erro "connection refused" no OpenClaw

O Ollama não está acessível na porta 11434:

# Verificar se Ollama está ouvindo
curl http://localhost:11434/api/version

# Se não responder, reinicie:
ollama serve
"Out of memory" (sem memória)

O modelo é grande demais para seu PC. Soluções:

  1. Use um modelo menor: ollama pull phi3:mini (2.3GB)
  2. Feche outros programas
  3. Aumente o swap: sudo swapon --show

Próximos Passos
Leia Também