Setup Simples: OpenClaw + Ollama no Seu PC (15 Minutos)
O jeito mais fácil de rodar IA 100% local. Instale Ollama, baixe um modelo, configure OpenClaw. 15 minutos, zero cloud, zero custo de API.
O jeito mais fácil de ter IA 100% no seu computador. Sem Docker, sem cloud, sem API paga. Só dois programas: Ollama (roda o modelo de IA) e OpenClaw (conecta com WhatsApp, Telegram, etc).
TL;DR — Só os Comandos
# 1. Instalar Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 2. Baixar modelo (2GB, ~2 minutos)
ollama pull llama3.2:3b
# 3. Instalar OpenClaw
npm install -g openclaw@latest
# 4. Configurar (escolha "ollama" como provider)
openclaw onboard --install-daemon
Pronto! Seu assistente IA agora roda 100% local.
O Que Você Vai Ter
┌──────────┐ ┌──────────┐ ┌──────────────┐
│ Você │ ──► │ OpenClaw │ ──► │ Ollama │
│ WhatsApp │ │ Gateway │ │ Llama 3.2 3B │
│ Terminal │ │ :3434 │ │ :11434 │
└──────────┘ └──────────┘ └──────────────┘
Tudo no seu PC. Nenhum dado sai.
Resultado: Um assistente de IA que responde no WhatsApp, Telegram ou Discord — sem que nenhuma mensagem passe por servidores externos.
Requisitos
| Requisito | Mínimo | Recomendado |
|---|---|---|
| RAM | 8GB | 16GB |
| Disco | 5GB livres | 10GB livres |
| CPU | Qualquer moderno | 8+ cores |
| GPU | Não precisa | NVIDIA 6GB+ (acelera muito) |
| Node.js | 22+ | 24 LTS |
| Sistema | macOS, Linux, Windows WSL2 | Linux 64-bit |
💡 Mac M1/M2/M3? Excelente para IA local! A GPU integrada acelera o Ollama automaticamente.
Passo 1: Instalar Ollama
Ollama é o motor que roda modelos de IA localmente. Instalação em 1 comando:
Linux:
curl -fsSL https://ollama.com/install.sh | sh
macOS:
# Com Homebrew
brew install ollama
# Ou baixe: https://ollama.com/download/mac
Windows (WSL2):
# Dentro do WSL2 Ubuntu:
curl -fsSL https://ollama.com/install.sh | sh
Verifique:
ollama --version
# Deve mostrar: ollama version 0.x.x
Passo 2: Baixar um Modelo
Agora baixe o modelo de IA que vai rodar no seu computador:
# Recomendado para começar (2GB, roda em qualquer PC com 8GB RAM)
ollama pull llama3.2:3b
Qual modelo escolher?
| Modelo | Tamanho | RAM Usada | Velocidade | Qualidade | Para Quem |
|---|---|---|---|---|---|
llama3.2:3b | 2GB | ~3GB | Rápido | Boa | Iniciantes, PCs modestos |
llama3.1:8b | 4.7GB | ~6GB | Médio | Muito boa | Uso geral, 16GB RAM |
qwen2.5:7b | 4.4GB | ~6GB | Médio | Muito boa | Bom em português |
qwen2.5:14b | 8.9GB | ~12GB | Lento | Excelente | Com GPU, 16GB+ RAM |
phi3:mini | 2.3GB | ~3GB | Muito rápido | Razoável | Raspberry Pi, PCs fracos |
Dica: Comece com
llama3.2:3b. Depois você baixa outros e alterna facilmente.
Passo 3: Testar o Ollama
Antes de conectar ao OpenClaw, confirme que o Ollama funciona:
ollama run llama3.2:3b "Olá! Me diga uma curiosidade sobre o Brasil"
Deve responder em alguns segundos. Se respondeu, o motor de IA está funcionando.
Não respondeu?
- “command not found” → Feche e abra o terminal
- “model not found” → Execute
ollama pull llama3.2:3bprimeiro - Lento demais → Tente
phi3:mini(menor e mais rápido)
Passo 4: Instalar OpenClaw
Se ainda não tem, instale Node.js 22+ e depois o OpenClaw:
# Se não tem Node.js:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash
# Feche e abra o terminal, depois:
nvm install 24
# Instalar OpenClaw
npm install -g openclaw@latest
Passo 5: Configurar OpenClaw para Ollama
Execute o wizard e escolha Ollama como provider de IA:
openclaw onboard --install-daemon
Quando perguntar qual provider/modelo usar, selecione:
- Provider: Ollama
- Modelo: llama3.2:3b (ou o que você baixou)
- Canal: WhatsApp, Telegram, ou o que preferir
Configuração manual (alternativa)
Se preferir editar o arquivo de configuração diretamente:
nano ~/clawd/config.yaml
# config.yaml — 100% Local
agents:
defaults:
model:
primary: "ollama/llama3.2:3b"
ollama:
baseUrl: "http://localhost:11434"
timeout: 120 # modelos locais podem ser mais lentos
Reinicie o gateway:
openclaw gateway restart
Passo 6: Testar Tudo Junto
Conecte seu canal (WhatsApp, Telegram, etc) e envie uma mensagem:
“Olá! Quem é você?”
Se respondeu — parabéns! Você tem um assistente de IA 100% local funcionando. Nenhum dado saiu do seu computador.
# Verificar status
openclaw gateway status
# Deve mostrar: running
# Ver logs em tempo real
openclaw gateway logs -f
🎉 Funcionou! Seu Assistente IA é 100% Local
Nenhuma mensagem sai do seu PC. Zero custo de API. Use quanto quiser.
Próximos passos:
Modo Híbrido (Opcional)
Quer o melhor dos dois mundos? Use Ollama para tarefas simples e Claude/GPT para tarefas complexas:
# config.yaml — Modo Híbrido
agents:
defaults:
model:
primary: "ollama/llama3.2:3b" # Padrão: local e grátis
fallback: "anthropic/claude-sonnet" # Backup: melhor qualidade
rules:
- match: "resumir|traduzir|lembrete"
model: "ollama/llama3.2:3b" # Tarefas simples → local
- match: "analisar|código|complexo"
model: "anthropic/claude-sonnet" # Tarefas complexas → API
Saiba mais: Como Usar OpenClaw com Modelos Locais
Dicas de Performance
Acelerando com GPU
Se tem uma placa NVIDIA:
# Verificar se Ollama detectou sua GPU
ollama ps
# Deve mostrar "gpu" na coluna de processador
O Ollama detecta GPUs NVIDIA automaticamente. Macs M1/M2/M3 também usam GPU Metal automaticamente.
Otimizações
- Feche programas pesados enquanto usa — o modelo precisa de RAM
- Use quantização Q4 (padrão) para melhor velocidade vs qualidade
- Limite o contexto se ficar lento:
num_ctx: 2048no config (padrão é 4096) - SSD é importante — a primeira carga do modelo lê do disco
Troubleshooting
Ollama não inicia
# Verificar se está rodando
systemctl status ollama # Linux
brew services info ollama # macOS
# Reiniciar
systemctl restart ollama # Linux
brew services restart ollama # macOS
Modelo muito lento
- Troque para um modelo menor:
ollama pull phi3:mini - Atualize o config:
primary: "ollama/phi3:mini" - Verifique RAM livre:
free -h(Linux) ou Activity Monitor (macOS) - Feche abas do navegador — Chrome consome muita RAM
Erro "connection refused" no OpenClaw
O Ollama não está acessível na porta 11434:
# Verificar se Ollama está ouvindo
curl http://localhost:11434/api/version
# Se não responder, reinicie:
ollama serve
"Out of memory" (sem memória)
O modelo é grande demais para seu PC. Soluções:
- Use um modelo menor:
ollama pull phi3:mini(2.3GB) - Feche outros programas
- Aumente o swap:
sudo swapon --show
Próximos Passos
- Docker Compose → Mais robusto, containers gerenciados
- Offline Total → Sem internet nenhuma, air-gapped
- Raspberry Pi 5 → Servidor dedicado 24/7
- Voltar ao hub de guias locais →