Ollama (Local)
Ollama (Local)
Rode modelos no seu próprio hardware.
Vantagens
- 🔒 100% privado
- 💰 Sem custo de API
- 🌐 Funciona offline
Desvantagens
- 📉 Qualidade inferior
- 🖥️ Requer hardware potente
- 🐢 Mais lento
Instalação
curl -fsSL https://ollama.ai/install.sh | sh
ollama pull llama3
Configuração
agents:
defaults:
model:
primary: "ollama/llama3"
Modelos Recomendados
- llama3 (8B) - Mínimo viável
- llama3 (70B) - Se tiver GPU forte
- mixtral - Bom equilíbrio
- codellama - Para código
Requisitos
- 8GB RAM mínimo (16GB+ recomendado)
- GPU opcional mas muito recomendada