Conectar Ollama ao Telegram com OpenClaw

Ollama + Telegram: Automatize IA local pelo Chat

O Ollama é uma das ferramentas mais poderosas para rodar modelos de linguagem grandes diretamente no seu computador, sem enviar nenhum dado para servidores externos. Com modelos como Llama 3, Mistral, Phi e Gemma disponíveis gratuitamente, o Ollama democratiza o acesso à IA local de alta qualidade.

Conectar o Ollama ao Telegram via OpenClaw é a combinação ideal para quem precisa de privacidade total: seus dados nunca saem da sua máquina, não há cobrança por token e você pode usar modelos especializados para tarefas específicas. O Telegram serve como interface conveniente — você interage pelo celular enquanto o processamento acontece no seu computador ou servidor local.

Essa configuração é especialmente atraente para advogados, médicos, contadores e profissionais que trabalham com dados sensíveis de clientes, além de desenvolvedores que querem experimentar modelos abertos sem custo.

O que você consegue fazer:

  • Conversar offline — IA funciona mesmo sem internet, processando tudo localmente
  • Processar dados sensíveis — documentos confidenciais nunca saem do seu dispositivo
  • Rodar sem custo de API — zero custo por mensagem após configuração inicial
  • Usar modelos especializados — modelos de código, medicina, jurídico, entre outros
  • Testar múltiplos modelos — alterne entre Llama, Mistral, Phi sem reconfigurar tudo

Veja o glossário para entender conceitos como LLM, quantização e GGUF — termos comuns no mundo dos modelos locais.

Pré-requisitos

Antes de começar, você precisa:

  1. OpenClaw instalado — leva 5 minutos
  2. Telegram conectado — Crie um bot no Telegram via @BotFather e configure o token no OpenClaw. Veja o guia de conexão Telegram.
  3. Ollama instalado localmente — Baixe em ollama.ai para Mac, Linux ou Windows
  4. Pelo menos um modelo baixadoollama pull llama3 ou ollama pull mistral
  5. Hardware adequado — Mínimo 8GB RAM para modelos 7B; 16GB+ recomendado para modelos maiores

Configuração Passo a Passo

Passo 1: Instalar e Configurar o Ollama

macOS e Linux:

curl -fsSL https://ollama.ai/install.sh | sh

Windows: Baixe o instalador em ollama.ai/download

Após instalar, baixe um modelo:

# Modelo recomendado para uso geral (4GB)
ollama pull llama3

# Alternativa mais leve (4GB, excelente para português)
ollama pull mistral

# Modelo especializado em código
ollama pull codellama

Verifique se está rodando:

ollama list
curl http://localhost:11434/api/tags

Passo 2: Criar seu Bot no Telegram

Abra o Telegram e inicie uma conversa com @BotFather. Digite /newbot, escolha um nome e username para o bot. Copie o token fornecido (formato: 123456789:ABCdef...).

Passo 3: Configurar o OpenClaw

No arquivo config.yaml, adicione:

llm:
  provider: ollama
  model: llama3
  base_url: http://localhost:11434
  max_tokens: 2048
  temperature: 0.7
  # Se Ollama estiver em outro servidor:
  # base_url: http://192.168.1.100:11434

channels:
  telegram:
    token: "123456789:ABCdef-seu-token-aqui"
    allowed_users:
      - 123456789  # Seu user ID no Telegram (use @userinfobot para descobrir)

A lista allowed_users é importante para garantir que apenas você acesse o bot que usa processamento local da sua máquina.

Passo 4: Reiniciar e Testar

openclaw gateway restart

Abra o Telegram e envie para o bot:

“Teste a conexão com Ollama”

Se tudo estiver correto, o OpenClaw responde confirmando a integração, o modelo em uso e o endereço do servidor Ollama.

Passo 5: Configurar Múltiplos Modelos (Opcional)

Para alternar entre modelos por comando no Telegram:

# soul.md
Quando eu pedir "/modelo llama3", mude para o modelo llama3
Quando eu pedir "/modelo codellama", mude para codellama
Quando eu pedir "/modelo mistral", mude para mistral

Exemplos de Uso

Exemplo 1: Processamento de Documento Confidencial

Envie o conteúdo de um contrato no Telegram:

“Analise este contrato e identifique cláusulas problemáticas: [cole o texto do contrato]”

O Ollama processa o documento completamente na sua máquina. Zero dados enviados para nuvem.

Exemplo 2: Assistente de Código Offline

Envie no Telegram:

“Explique este erro Python e sugira a correção: TypeError: ‘NoneType’ object is not subscriptable Linha 45: resultado = dados[‘valor’]”

O modelo Llama 3 ou CodeLlama explica a causa (a variável dados é None) e oferece código corrigido com tratamento de exceção.

Exemplo 3: Consulta sem Internet

Mesmo sem conexão com a internet (o Telegram ainda precisa de conexão, mas o processamento de IA não), você pode:

“Escreva um e-mail formal pedindo extensão de prazo”

O Ollama processa localmente e a resposta chega via Telegram normalmente.

Exemplo 4: Comparação de Modelos

Envie no Telegram:

“/modelo mistral — Explique o conceito de machine learning em 3 frases simples”

Depois:

“/modelo llama3 — Explique o conceito de machine learning em 3 frases simples”

Compare as respostas para escolher qual modelo atende melhor suas necessidades.

Dicas e Boas Práticas

  • Escolha o modelo pelo hardware: Com 8GB RAM, use modelos 7B (llama3, mistral). Com 16GB, pode usar modelos 13B. Com 32GB+, modelos 34B ou maiores ficam viáveis.
  • Habilite GPU se disponível: O Ollama detecta automaticamente GPUs NVIDIA e AMD. Com GPU, as respostas são 5-10x mais rápidas. Verifique com ollama run llama3 e monitore uso de GPU.
  • Mantenha o Ollama rodando: Configure o Ollama para iniciar automaticamente com o sistema. No macOS: ele já inicia como serviço. No Linux: systemctl enable ollama.
  • Use modelos em português: O Llama 3 e o Mistral têm bom desempenho em português. Para melhor qualidade, considere versões fine-tuned para PT-BR disponíveis no Ollama Hub.
  • Configure acesso remoto com cuidado: Se o Ollama estiver num servidor, garanta que está acessível apenas na rede local ou via VPN. Nunca exponha o endpoint Ollama diretamente para a internet.

Solução de Problemas Comuns

ProblemaSolução
“Integração não responde”Verifique se o Ollama está rodando: curl http://localhost:11434/api/tags
“Conexão recusada”Inicie o Ollama: ollama serve ou reinstale o serviço
“Mensagens não chegam no Telegram”Verifique o token do bot e confirme com /status
“Respostas muito lentas”Modelos grandes em CPU são lentos. Use modelos menores ou habilite GPU
“Erro: model not found”Baixe o modelo: ollama pull nome-do-modelo
“Out of memory”Use um modelo menor (phi3 para hardware limitado) ou aumente a RAM swap

Para problemas avançados, veja o guia de troubleshooting e os artigos técnicos no blog.

FAQ

O Ollama funciona sem internet? O processamento de IA funciona totalmente offline. O Telegram precisa de internet para enviar/receber mensagens, mas o modelo roda localmente. Se você usar o OpenClaw num servidor com o Telegram conectado, pode processar dados mesmo sem que o cliente final tenha internet.

Quais modelos têm melhor suporte ao português? Llama 3 8B e Mistral 7B têm bom suporte ao português. Para melhor qualidade, procure no Ollama Hub por modelos com “pt-br” ou “portuguese” no nome. O modelo Sabia-3, desenvolvido no Brasil, também pode ser importado.

Posso usar o Ollama num servidor e o Telegram no celular? Sim. Configure base_url no OpenClaw apontando para o IP do servidor: http://192.168.1.100:11434. O processamento ocorre no servidor, as mensagens chegam no seu celular pelo Telegram.

Como comparar custo-benefício com GPT-4? Ollama tem custo zero por mensagem após instalação (só energia elétrica). GPT-4 custa cerca de US$ 0,01-0,05 por conversa. Para 100+ interações por dia, Ollama pode economizar US$ 30-150/mês. A desvantagem é qualidade inferior em tarefas complexas.

Posso usar Ollama e OpenAI no mesmo OpenClaw? Sim. Configure dois perfis no config.yaml e alterne por comando. Use Ollama para tarefas rotineiras e OpenAI/Anthropic para análises que exigem mais qualidade.

Próximos Passos