OpenClaw no Raspberry Pi 5: Assistente IA 24/7 em Casa
Monte um assistente de IA 100% local no Raspberry Pi 5. Ollama + OpenClaw, sempre ligado, baixo consumo, privacidade total. Sem cloud, sem API paga.
Um mini servidor de IA em casa. Sempre ligado, sempre privado, consumo de ~5W. O Raspberry Pi 5 com 8GB roda modelos de IA localmente e mantém seu OpenClaw disponível 24 horas por dia.
Já tem OpenClaw no Pi com API? Este guia é diferente: aqui configuramos Ollama para rodar modelos localmente no Pi, sem nenhuma chamada de API cloud. Veja o comparativo no final.
TL;DR — O Que Você Vai Montar
Um Raspberry Pi 5 (8GB) rodando:
- Ollama com modelo Llama 3.2 3B ou Phi-3 Mini
- OpenClaw conectado ao WhatsApp/Telegram
- Ligado 24/7 com auto-restart no boot
- Custo: ~R$800 uma vez + ~R$5/mês de energia
Hardware Necessário
| Item | Especificação | Preço Estimado | Obrigatório? |
|---|---|---|---|
| Raspberry Pi 5 | 8GB RAM (obrigatório para IA) | ~R$500 | Sim |
| Fonte oficial | 27W USB-C | ~R$60 | Sim |
| Cartão microSD | 64GB+ A2 (ou NVMe) | ~R$50 | Sim |
| Cooler ativo | Case com ventilador ou heatsink | ~R$80 | Sim |
| HAT NVMe (recomendado) | M.2 2230/2242 SSD | ~R$150 | Não |
| Cabo ethernet | Conexão com roteador local | — | Recomendado |
⚠️ Pi 5 com 4GB NÃO funciona para IA local. Você precisa da versão 8GB para ter RAM suficiente para o modelo + OpenClaw + sistema operacional.
Investimento total: ~R$700-900 uma vez.
Modelos que Rodam no Pi 5
O Pi 5 tem CPU ARM64 e 8GB RAM. Modelos pequenos rodam bem:
| Modelo | RAM Usada | Velocidade | Qualidade | Comando |
|---|---|---|---|---|
| Phi-3 Mini (3.8B) | ~2.5GB | Rápido | Boa | ollama pull phi3:mini |
| Llama 3.2 3B | ~2.2GB | Rápido | Boa | ollama pull llama3.2:3b |
| Gemma 2 2B | ~1.8GB | Muito rápido | Razoável | ollama pull gemma2:2b |
| Qwen 2.5 3B | ~2.3GB | Rápido | Boa | ollama pull qwen2.5:3b |
| TinyLlama 1.1B | ~0.7GB | Ultra rápido | Básica | ollama pull tinyllama |
Recomendação: Comece com Phi-3 Mini ou Llama 3.2 3B. Melhor equilíbrio entre qualidade e velocidade no Pi 5.
Modelos que NÃO rodam bem no Pi 5: Llama 3.1 8B (precisa 6GB+ RAM, deixa pouco para o sistema), Qwen 2.5 14B, qualquer modelo 13B+.
Passo 1: Instalar Raspberry Pi OS
Use o Raspberry Pi Imager para gravar Raspberry Pi OS Lite (64-bit) no cartão SD.
Configurações no Imager (engrenagem):
- Hostname:
openclaw-pi - Habilitar SSH (usar senha ou chave)
- Configurar WiFi (ou use cabo ethernet)
- Definir nome de usuário e senha
Insira o cartão no Pi, ligue e conecte via SSH:
ssh usuario@openclaw-pi.local
# ou pelo IP: ssh usuario@192.168.x.x
Atualizar sistema
sudo apt update && sudo apt upgrade -y
(Opcional) Usar NVMe em vez de SD
Se tem um HAT NVMe, siga o guia oficial para bootar do SSD. Muito mais rápido — a carga inicial do modelo melhora drasticamente.
Passo 2: Instalar Ollama no Pi
Ollama tem suporte nativo a ARM64 Linux:
curl -fsSL https://ollama.com/install.sh | sh
Verifique:
ollama --version
Passo 3: Baixar Modelo Leve
# Recomendado para Pi 5
ollama pull phi3:mini
Teste:
ollama run phi3:mini "Me diga uma curiosidade sobre o Brasil"
No Pi 5, a primeira resposta pode demorar 10-15 segundos (carregando modelo). Respostas seguintes são mais rápidas (2-5 segundos por frase).
Muito lento? Tente gemma2:2b (menor) ou tinyllama (mínimo). Se ainda está lento, verifique se o cooler está funcionando — throttling térmico é a causa mais comum de lentidão no Pi.
Passo 4: Instalar Node.js e OpenClaw
# Instalar nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash
source ~/.bashrc
# Instalar Node.js 24
nvm install 24
nvm alias default 24
# Instalar OpenClaw
npm install -g openclaw@latest
Passo 5: Configurar OpenClaw para Ollama
openclaw onboard --install-daemon
Quando perguntar:
- Provider: Ollama
- Modelo: phi3:mini (ou o que você baixou)
- Canal: WhatsApp, Telegram, etc.
Configuração manual
mkdir -p ~/clawd
nano ~/clawd/config.yaml
# config.yaml — Otimizado para Raspberry Pi 5
agents:
defaults:
model:
primary: "ollama/phi3:mini"
ollama:
baseUrl: "http://localhost:11434"
timeout: 180 # Pi é mais lento, dar mais tempo
options:
num_ctx: 2048 # Limitar contexto para economizar RAM
Passo 6: Serviços systemd (Auto-Start)
Configure para iniciar automaticamente no boot:
Serviço OpenClaw
sudo tee /etc/systemd/system/openclaw.service > /dev/null << 'EOF'
[Unit]
Description=OpenClaw Gateway
After=network-online.target ollama.service
Wants=network-online.target
[Service]
Type=simple
User=pi
Environment="PATH=/home/pi/.nvm/versions/node/v24.0.0/bin:/usr/local/bin:/usr/bin:/bin"
WorkingDirectory=/home/pi/clawd
ExecStart=/home/pi/.nvm/versions/node/v24.0.0/bin/openclaw gateway start --foreground
Restart=always
RestartSec=10
[Install]
WantedBy=multi-user.target
EOF
Ajuste o caminho do Node.js se seu usuário não for
pi. Verifique com:which openclaw
sudo systemctl daemon-reload
sudo systemctl enable openclaw
sudo systemctl start openclaw
Verificar
sudo systemctl status ollama
sudo systemctl status openclaw
# Ambos devem mostrar "active (running)"
Agora, mesmo se o Pi reiniciar (queda de energia, etc), tudo volta sozinho.
Otimizações para Raspberry Pi
Swap (importante!)
O Pi 5 com 8GB pode precisar de swap para modelos maiores:
# Aumentar swap para 2GB
sudo dphys-swapfile swapoff
sudo sed -i 's/CONF_SWAPSIZE=.*/CONF_SWAPSIZE=2048/' /etc/dphys-swapfile
sudo dphys-swapfile setup
sudo dphys-swapfile swapon
Reduzir uso de memória do sistema
# Desabilitar serviços desnecessários
sudo systemctl disable bluetooth
sudo systemctl disable avahi-daemon
sudo systemctl disable triggerhappy
# Reduzir memória da GPU (não estamos usando desktop)
echo 'gpu_mem=16' | sudo tee -a /boot/firmware/config.txt
sudo reboot
Monitorar temperatura
# Ver temperatura
vcgencmd measure_temp
# Ideal: < 70°C. Acima de 80°C = throttling
# Monitorar continuamente
watch -n 2 vcgencmd measure_temp
Se passa de 75°C frequentemente: Melhore o cooler. O Active Cooler oficial da Raspberry Pi funciona bem.
Acesso Remoto
Pela rede local
# SSH
ssh usuario@openclaw-pi.local
# Ver logs
ssh usuario@openclaw-pi.local journalctl -u openclaw -f
De fora de casa (Tailscale)
Tailscale cria uma VPN gratuita para acessar seu Pi de qualquer lugar:
# No Pi
curl -fsSL https://tailscale.com/install.sh | sh
sudo tailscale up
# No seu celular/PC: instale Tailscale e conecte à mesma conta
# Acesse: ssh usuario@100.x.x.x (IP do Tailscale)
Custos Reais
| Item | Custo | Frequência |
|---|---|---|
| Hardware (Pi 5 8GB + acessórios) | ~R$800 | Uma vez |
| Energia elétrica (~5W 24/7) | ~R$5/mês | Mensal |
| API de IA | R$0 | Nunca |
| Total 1° ano | ~R$860 | — |
| Total a partir do 2° ano | ~R$60/ano | — |
Compare com APIs cloud: Claude/GPT custam R$15-40/mês. O Pi se paga em ~6 meses.
Pi com API vs Pi 100% Local
| Aspecto | Pi + API Cloud | Pi 100% Local (este guia) |
|---|---|---|
| Qualidade das respostas | Excelente (Claude/GPT) | Boa (modelos 3B) |
| Custo mensal | R$15-40/mês (API) | R$5/mês (só energia) |
| Precisa de internet | Sim | Não |
| Privacidade | Dados vão para cloud | 100% local |
| Velocidade | Rápido (servidores GPU) | 2-5 seg por resposta |
| Complexidade de setup | Mais fácil | Um pouco mais |
Solução híbrida: Use Ollama local como padrão e Claude como fallback para tarefas complexas. Veja como no Setup Simples.
Troubleshooting
Pi esquentando muito (throttling térmico)
# Verificar temperatura
vcgencmd measure_temp
# Acima de 80°C = throttling
# Verificar se está em throttling
vcgencmd get_throttled
# 0x0 = OK, outros valores = problema
Soluções:
- Instale um cooler ativo (ventilador)
- Melhore a ventilação do gabinete
- Use modelo menor (menos CPU = menos calor)
- Reduza
num_ctxno config para 1024
"Out of memory" (OOM Kill)
O modelo + sistema + OpenClaw excederam 8GB:
- Use modelo menor:
ollama pull tinyllama(0.7GB) - Aumente swap (veja otimizações acima)
- Reduza
num_ctx: 1024no config - Verifique se não tem outros serviços consumindo RAM:
htop
Modelo demora muito na primeira resposta
Normal! O modelo precisa ser carregado do disco para a RAM. Isso leva 10-20 segundos no Pi.
Para acelerar:
- Use NVMe em vez de cartão SD (boot SSD)
- O modelo fica em cache após a primeira carga
- Configure
OLLAMA_KEEP_ALIVE=-1para nunca descarregar:echo 'Environment="OLLAMA_KEEP_ALIVE=-1"' | sudo tee -a /etc/systemd/system/ollama.service.d/override.conf
WhatsApp QR code não aparece via SSH
O QR code precisa de um terminal que suporte gráficos Unicode:
# Use um terminal moderno (Alacritty, iTerm2, Windows Terminal)
# Ou exporte para arquivo e abra no navegador:
openclaw channel add whatsapp 2>&1 | tee qr.txt