FAQ Ollama (Modelos Locais) no OpenClaw
Perguntas frequentes sobre usar Ollama para rodar IA local no OpenClaw: modelos, hardware e configuração.
O que é Ollama e por que usar?
Ollama permite rodar modelos de IA no seu computador. Zero custo de API, funciona offline, privacidade total. Ideal para dados sensíveis.
Qual modelo baixar para Ollama?
Para PC com 8GB RAM: llama3.1:8b-q4. Com 16GB: llama3.1:8b. Com 32GB+: llama3.1:70b-q4. Para código: codestral.
Ollama funciona em Mac?
Sim, excelente no Mac com Apple Silicon (M1/M2/M3). Usa GPU integrada para inferência rápida.
A qualidade é boa comparada com GPT-4?
Modelos 7-8B são bons para FAQ e tarefas simples. Para qualidade próxima ao GPT-4, use 70B (precisa de 40GB+ RAM).
Posso usar Ollama + API cloud juntos?
Sim! Configure model routing: Ollama para privacidade (dados sensíveis), Claude/GPT-4 para qualidade máxima.
Como atualizar modelos no Ollama?
Execute ollama pull modelo novamente. Ele baixa apenas as atualizações. Verifique novos modelos em ollama.ai/library.
Ollama suporta GPU NVIDIA?
Sim, detecta automaticamente. CUDA deve estar instalado. Verifique: nvidia-smi. Inferência é 5-10x mais rápida com GPU.
O Ollama funciona no Windows?
Sim, via WSL2 ou app nativo para Windows. Mac e Linux são os mais otimizados.
Não encontrou sua resposta?
- FAQ Geral — perguntas básicas sobre o OpenClaw
- FAQ Técnico — problemas técnicos e soluções
- Troubleshooting — guias de solução de problemas
- Comunidade Discord — pergunte para outros usuários
- GitHub Issues — reporte bugs