Conectar Ollama ao Telegram com OpenClaw
Ollama + Telegram: Automatize IA local pelo Chat
O Ollama é uma das ferramentas mais poderosas para rodar modelos de linguagem grandes diretamente no seu computador, sem enviar nenhum dado para servidores externos. Com modelos como Llama 3, Mistral, Phi e Gemma disponíveis gratuitamente, o Ollama democratiza o acesso à IA local de alta qualidade.
Conectar o Ollama ao Telegram via OpenClaw é a combinação ideal para quem precisa de privacidade total: seus dados nunca saem da sua máquina, não há cobrança por token e você pode usar modelos especializados para tarefas específicas. O Telegram serve como interface conveniente — você interage pelo celular enquanto o processamento acontece no seu computador ou servidor local.
Essa configuração é especialmente atraente para advogados, médicos, contadores e profissionais que trabalham com dados sensíveis de clientes, além de desenvolvedores que querem experimentar modelos abertos sem custo.
O que você consegue fazer:
- Conversar offline — IA funciona mesmo sem internet, processando tudo localmente
- Processar dados sensíveis — documentos confidenciais nunca saem do seu dispositivo
- Rodar sem custo de API — zero custo por mensagem após configuração inicial
- Usar modelos especializados — modelos de código, medicina, jurídico, entre outros
- Testar múltiplos modelos — alterne entre Llama, Mistral, Phi sem reconfigurar tudo
Veja o glossário para entender conceitos como LLM, quantização e GGUF — termos comuns no mundo dos modelos locais.
Pré-requisitos
Antes de começar, você precisa:
- ✅ OpenClaw instalado — leva 5 minutos
- ✅ Telegram conectado — Crie um bot no Telegram via @BotFather e configure o token no OpenClaw. Veja o guia de conexão Telegram.
- ✅ Ollama instalado localmente — Baixe em ollama.ai para Mac, Linux ou Windows
- ✅ Pelo menos um modelo baixado —
ollama pull llama3ouollama pull mistral - ✅ Hardware adequado — Mínimo 8GB RAM para modelos 7B; 16GB+ recomendado para modelos maiores
Configuração Passo a Passo
Passo 1: Instalar e Configurar o Ollama
macOS e Linux:
curl -fsSL https://ollama.ai/install.sh | sh
Windows: Baixe o instalador em ollama.ai/download
Após instalar, baixe um modelo:
# Modelo recomendado para uso geral (4GB)
ollama pull llama3
# Alternativa mais leve (4GB, excelente para português)
ollama pull mistral
# Modelo especializado em código
ollama pull codellama
Verifique se está rodando:
ollama list
curl http://localhost:11434/api/tags
Passo 2: Criar seu Bot no Telegram
Abra o Telegram e inicie uma conversa com @BotFather. Digite /newbot, escolha um nome e username para o bot. Copie o token fornecido (formato: 123456789:ABCdef...).
Passo 3: Configurar o OpenClaw
No arquivo config.yaml, adicione:
llm:
provider: ollama
model: llama3
base_url: http://localhost:11434
max_tokens: 2048
temperature: 0.7
# Se Ollama estiver em outro servidor:
# base_url: http://192.168.1.100:11434
channels:
telegram:
token: "123456789:ABCdef-seu-token-aqui"
allowed_users:
- 123456789 # Seu user ID no Telegram (use @userinfobot para descobrir)
A lista allowed_users é importante para garantir que apenas você acesse o bot que usa processamento local da sua máquina.
Passo 4: Reiniciar e Testar
openclaw gateway restart
Abra o Telegram e envie para o bot:
“Teste a conexão com Ollama”
Se tudo estiver correto, o OpenClaw responde confirmando a integração, o modelo em uso e o endereço do servidor Ollama.
Passo 5: Configurar Múltiplos Modelos (Opcional)
Para alternar entre modelos por comando no Telegram:
# soul.md
Quando eu pedir "/modelo llama3", mude para o modelo llama3
Quando eu pedir "/modelo codellama", mude para codellama
Quando eu pedir "/modelo mistral", mude para mistral
Exemplos de Uso
Exemplo 1: Processamento de Documento Confidencial
Envie o conteúdo de um contrato no Telegram:
“Analise este contrato e identifique cláusulas problemáticas: [cole o texto do contrato]”
O Ollama processa o documento completamente na sua máquina. Zero dados enviados para nuvem.
Exemplo 2: Assistente de Código Offline
Envie no Telegram:
“Explique este erro Python e sugira a correção: TypeError: ‘NoneType’ object is not subscriptable Linha 45: resultado = dados[‘valor’]”
O modelo Llama 3 ou CodeLlama explica a causa (a variável dados é None) e oferece código corrigido com tratamento de exceção.
Exemplo 3: Consulta sem Internet
Mesmo sem conexão com a internet (o Telegram ainda precisa de conexão, mas o processamento de IA não), você pode:
“Escreva um e-mail formal pedindo extensão de prazo”
O Ollama processa localmente e a resposta chega via Telegram normalmente.
Exemplo 4: Comparação de Modelos
Envie no Telegram:
“/modelo mistral — Explique o conceito de machine learning em 3 frases simples”
Depois:
“/modelo llama3 — Explique o conceito de machine learning em 3 frases simples”
Compare as respostas para escolher qual modelo atende melhor suas necessidades.
Dicas e Boas Práticas
- Escolha o modelo pelo hardware: Com 8GB RAM, use modelos 7B (llama3, mistral). Com 16GB, pode usar modelos 13B. Com 32GB+, modelos 34B ou maiores ficam viáveis.
- Habilite GPU se disponível: O Ollama detecta automaticamente GPUs NVIDIA e AMD. Com GPU, as respostas são 5-10x mais rápidas. Verifique com
ollama run llama3e monitore uso de GPU. - Mantenha o Ollama rodando: Configure o Ollama para iniciar automaticamente com o sistema. No macOS: ele já inicia como serviço. No Linux:
systemctl enable ollama. - Use modelos em português: O Llama 3 e o Mistral têm bom desempenho em português. Para melhor qualidade, considere versões fine-tuned para PT-BR disponíveis no Ollama Hub.
- Configure acesso remoto com cuidado: Se o Ollama estiver num servidor, garanta que está acessível apenas na rede local ou via VPN. Nunca exponha o endpoint Ollama diretamente para a internet.
Solução de Problemas Comuns
| Problema | Solução |
|---|---|
| “Integração não responde” | Verifique se o Ollama está rodando: curl http://localhost:11434/api/tags |
| “Conexão recusada” | Inicie o Ollama: ollama serve ou reinstale o serviço |
| “Mensagens não chegam no Telegram” | Verifique o token do bot e confirme com /status |
| “Respostas muito lentas” | Modelos grandes em CPU são lentos. Use modelos menores ou habilite GPU |
| “Erro: model not found” | Baixe o modelo: ollama pull nome-do-modelo |
| “Out of memory” | Use um modelo menor (phi3 para hardware limitado) ou aumente a RAM swap |
Para problemas avançados, veja o guia de troubleshooting e os artigos técnicos no blog.
FAQ
O Ollama funciona sem internet? O processamento de IA funciona totalmente offline. O Telegram precisa de internet para enviar/receber mensagens, mas o modelo roda localmente. Se você usar o OpenClaw num servidor com o Telegram conectado, pode processar dados mesmo sem que o cliente final tenha internet.
Quais modelos têm melhor suporte ao português? Llama 3 8B e Mistral 7B têm bom suporte ao português. Para melhor qualidade, procure no Ollama Hub por modelos com “pt-br” ou “portuguese” no nome. O modelo Sabia-3, desenvolvido no Brasil, também pode ser importado.
Posso usar o Ollama num servidor e o Telegram no celular?
Sim. Configure base_url no OpenClaw apontando para o IP do servidor: http://192.168.1.100:11434. O processamento ocorre no servidor, as mensagens chegam no seu celular pelo Telegram.
Como comparar custo-benefício com GPT-4? Ollama tem custo zero por mensagem após instalação (só energia elétrica). GPT-4 custa cerca de US$ 0,01-0,05 por conversa. Para 100+ interações por dia, Ollama pode economizar US$ 30-150/mês. A desvantagem é qualidade inferior em tarefas complexas.
Posso usar Ollama e OpenAI no mesmo OpenClaw?
Sim. Configure dois perfis no config.yaml e alterne por comando. Use Ollama para tarefas rotineiras e OpenAI/Anthropic para análises que exigem mais qualidade.
Próximos Passos
- Receitas prontas com IA local — automatizações que funcionam com Ollama
- Skills personalizados — crie funções específicas para seus modelos locais
- Integrações disponíveis — combine Ollama com Google Sheets, GitHub e mais
- Outros canais disponíveis — use Ollama no WhatsApp, Slack ou Discord
- Guia de segurança — melhores práticas para IA local em ambiente corporativo
- FAQ geral — perguntas frequentes sobre o OpenClaw