Ollama (Local)

Ollama (Local)

Rode modelos no seu próprio hardware.

Vantagens

  • 🔒 100% privado
  • 💰 Sem custo de API
  • 🌐 Funciona offline

Desvantagens

  • 📉 Qualidade inferior
  • 🖥️ Requer hardware potente
  • 🐢 Mais lento

Instalação

curl -fsSL https://ollama.ai/install.sh | sh
ollama pull llama3

Configuração

agents:
  defaults:
    model:
      primary: "ollama/llama3"

Modelos Recomendados

  • llama3 (8B) - Mínimo viável
  • llama3 (70B) - Se tiver GPU forte
  • mixtral - Bom equilíbrio
  • codellama - Para código

Requisitos

  • 8GB RAM mínimo (16GB+ recomendado)
  • GPU opcional mas muito recomendada