Embedding
Representação numérica de texto que permite busca semântica e comparação de significados
📅 02 de February de 2026
⏱️ 1 min de leitura
Embedding é a conversão de texto em vetores numéricos que capturam seu significado semântico, permitindo que máquinas “entendam” similaridades entre conceitos.
Como funciona
Cada palavra, frase ou documento vira uma lista de números (vetor). Textos com significados parecidos ficam próximos matematicamente.
Exemplo prático
As frases:
- “Quero cancelar minha assinatura”
- “Como faço para encerrar o plano?”
Têm embeddings muito similares, mesmo usando palavras diferentes. Isso permite que um sistema de atendimento reconheça ambas como pedidos de cancelamento.
Uso em IA
- Busca semântica: encontra documentos por significado, não só palavras exatas
- RAG: recupera informações relevantes para fundamentar respostas
- Classificação: agrupa textos por tema automaticamente
- Recomendações: sugere conteúdos similares
No OpenClaw
O memory_search usa embeddings para encontrar informações relevantes em MEMORY.md e arquivos de memória, retornando contexto útil mesmo quando você não usa as palavras exatas.
Modelos populares
- OpenAI text-embedding-3-large
- Cohere Embed v3
- Sentence Transformers (open source)