Few-Shot Learning

O Que É Few-Shot Learning

Few-Shot Learning é a técnica de fornecer a um modelo de IA alguns exemplos da tarefa desejada — geralmente entre 2 e 10 — antes de fazer a pergunta real. Esses exemplos funcionam como demonstrações que ensinam o modelo o formato, o estilo e o tipo de resposta que você espera, sem precisar fazer fine-tuning ou retreinar qualquer parâmetro.

O conceito surge do “in-context learning” (aprendizado em contexto), uma capacidade emergente dos grandes modelos de linguagem. Diferentemente do aprendizado tradicional de Machine Learning, onde o modelo precisa de milhares de exemplos e de um processo de treinamento custoso, o Few-Shot acontece dentro da própria janela de contexto — os exemplos são simplesmente incluídos no prompt junto com a pergunta.

Essa técnica é poderosa porque modelos como GPT-4 e Claude são extremamente bons em identificar padrões a partir de poucos exemplos. Um único exemplo bem escolhido (1-shot) já pode melhorar significativamente a qualidade das respostas para tarefas estruturadas. Com 3 a 5 exemplos (few-shot), a melhora é ainda mais pronunciada, especialmente para tarefas que exigem formato específico ou vocabulário técnico.

Como Funciona

O mecanismo do Few-Shot é elegantemente simples: você inclui pares de “entrada → saída esperada” no prompt, antes da pergunta real. O modelo vê esses exemplos, infere o padrão e aplica à nova entrada.

Classifique o sentimento:

Texto: "Adorei o produto!" → Positivo
Texto: "Péssimo atendimento" → Negativo
Texto: "Chegou no prazo" → Neutro
Texto: "Nunca mais compro aqui" → ?

O modelo aprende, a partir dos três exemplos, que a tarefa é classificar sentimentos em Positivo, Negativo ou Neutro, e que o formato esperado é apenas a etiqueta após a seta. A resposta será “Negativo” — sem precisar de nenhum treinamento adicional.

Alguns princípios importantes para Few-Shot eficaz: os exemplos devem ser diversificados (cobrir diferentes variações da tarefa), representativos (incluir casos difíceis ou ambíguos), e ordenados de forma inteligente (a ordem dos exemplos pode influenciar o resultado — coloque os mais representativos por último). Para classificação, é bom incluir exemplos de todas as classes possíveis para que o modelo saiba todo o espaço de respostas.

A distinção entre variantes:

  • Zero-shot: nenhum exemplo, apenas instruções
  • One-shot: um único exemplo
  • Few-shot: 2 a 10 exemplos
  • Many-shot: 10+ exemplos (útil para contextos muito específicos com janelas grandes)

Exemplo Prático

Uma empresa de logística no Brasil recebe centenas de e-mails por dia: pedidos de rastreamento, reclamações de atraso, solicitações de nota fiscal e elogios. A equipe quer automatizar a triagem desses e-mails para direcionar cada um ao time correto.

Com Few-Shot configurado no OpenClaw, a configuração no soul.md pode ser:

## Como classificar e-mails

Exemplos:
- "Boa tarde, preciso do XML da NF-e 12345" → Fiscal
- "Meu pedido 98765 está atrasado há 3 dias" → Reclamação
- "Quando minha encomenda vai chegar?" → Rastreamento
- "Parabéns pelo ótimo serviço!" → Elogio
- "Preciso alterar o endereço de entrega" → Alteração

Classifique novos e-mails usando exatamente uma dessas categorias.

Com esses cinco exemplos, o OpenClaw passa a classificar e-mails com alta precisão, direcionando cada mensagem ao time correto automaticamente — sem nenhum treinamento formal, apenas com os exemplos no contexto.

Importância para Empresas

Few-Shot é uma das técnicas mais práticas e acessíveis de customização de IA para empresas. Diferentemente do fine-tuning, que exige centenas ou milhares de exemplos rotulados e um processo de treinamento caro, o Few-Shot pode ser implementado em minutos com apenas alguns exemplos bem escolhidos.

Para equipes de negócio sem experiência técnica profunda, isso é revolucionário. Você não precisa de um cientista de dados para melhorar as respostas do seu assistente — basta incluir alguns exemplos de como você quer que ele responda. Um analista de atendimento pode criar exemplos a partir das melhores respostas históricas da equipe e imediatamente ver o assistente replicar aquele padrão.

O Few-Shot também é ótimo para consistência. Quando múltiplos colaboradores usam o mesmo assistente, exemplos concretos garantem que o tom, o formato e o vocabulário das respostas sejam uniformes — algo difícil de alcançar apenas com instruções abstratas como “seja formal” ou “use linguagem técnica”.

Few-Shot no OpenClaw

O OpenClaw suporta Few-Shot nativamente através do arquivo soul.md, onde você define exemplos de interações esperadas para qualquer tipo de tarefa. Isso é especialmente útil para:

Classificação de mensagens: direcionar tickets, e-mails e mensagens automaticamente para os times corretos.

Formatação de respostas: garantir que o assistente sempre responda com bullet points, tabelas, ou qualquer outro formato específico que sua equipe prefere.

Terminologia específica: ensinar ao modelo os jargões e expressões internas da sua empresa, incluindo abreviações, nomes de sistemas e processos internos.

Atendimento ao cliente: demonstrar o tom exato que sua marca usa — mais formal, mais informal, com humor sutil ou completamente técnico.

A combinação de Few-Shot com Chain-of-Thought (incluir exemplos que mostram o raciocínio passo a passo) produz resultados ainda melhores para tarefas de análise e tomada de decisão complexas.

Termos Relacionados

Perguntas Frequentes

Quantos exemplos são suficientes para Few-Shot? Depende da complexidade da tarefa. Para classificação simples, 3 a 5 exemplos geralmente são suficientes. Para tarefas mais complexas ou com muitas variações, 10 a 20 exemplos podem ser necessários. Comece com poucos e adicione mais se a performance não for satisfatória.

Few-Shot substitui o fine-tuning? Na maioria dos casos, sim. Few-Shot é mais rápido, barato e flexível — você pode mudar os exemplos sem retreinar o modelo. O fine-tuning só se justifica quando você tem centenas de exemplos rotulados, precisa de performance extremamente consistente em alta escala, ou quando as instruções são longas demais para caber na janela de contexto.

A ordem dos exemplos importa? Sim, pode ter impacto. A tendência é que exemplos mais recentes (próximos ao final do prompt) tenham mais influência na resposta. Uma boa prática é colocar exemplos mais ambíguos ou difíceis por último, perto da pergunta real.

Few-Shot funciona em português? Perfeitamente. Os principais modelos como Claude e GPT-4 são treinados em grandes volumes de português brasileiro e respondem tão bem a exemplos em português quanto em inglês. Você pode escrever seus exemplos naturalmente no idioma que preferir.

Como sei se meus exemplos estão funcionando? Crie um conjunto de testes com casos que você sabe a resposta correta e meça a taxa de acerto antes e depois de adicionar os exemplos. Se a performance melhorou, os exemplos estão funcionando. Se não melhorou, tente variar os exemplos ou adicionar mais casos que cubram os erros mais frequentes.