BERT Fuga/ChurnSentinel

Modelo BERT fine-tuned para detecção de indícios de fuga, fidelidade ou neutralidade em comentários de clientes B2B, treinado em português do Brasil para o contexto de Customer Success.

📝 Descrição

Este modelo foi treinado para analisar textos extraídos de interações comerciais, pesquisas NPS e resumos de relacionamento, classificando automaticamente o risco de "fuga" (churn), "fidelidade" ou "neutro".
Utiliza a arquitetura BERT e é especialmente ajustado para o domínio de SaaS, TI, e prestação de serviços.

⚡️ Tarefas

  • Classificação de texto em três classes:
    • fuga: Indícios claros de churn (migração, insatisfação explícita, perda de cliente, etc.)
    • fidelidade: Indícios de satisfação, continuidade e baixo risco de churn
    • neutro: Textos sem sinais claros para ambos os lados

🔤 Linguagem

  • Treinado exclusivamente em português do Brasil (pt-br)

📂 Dados de Treinamento

  • Origem: Textos reais de relacionamento, tickets, respostas de NPS, interações de Customer Success
  • Volume: +7.000 exemplos anotados manualmente e enriquecidos com dados de cancelamento e históricos
  • Desbalanceamento: Classes balanceadas manualmente no pré-processamento

🏷️ Labels

  • fuga
  • fidelidade
  • neutro

💻 Como usar

from transformers import AutoTokenizer, AutoModelForSequenceClassification

model = AutoModelForSequenceClassification.from_pretrained("ViniciusKanh/bert-fuga-churnsentinel")
tokenizer = AutoTokenizer.from_pretrained("ViniciusKanh/bert-fuga-churnsentinel")

texto = "Cliente testando plataforma concorrente e reduzindo escopo."
inputs = tokenizer(texto, return_tensors="pt", truncation=True, max_length=512)
outputs = model(**inputs)
pred = outputs.logits.softmax(dim=1).argmax(dim=1).item()
labels = ["fidelidade", "fuga", "neutro"]
print(labels[pred])

💡 Exemplos

Texto Resultado Esperado
"Cliente migrando para Google." fuga
"Cliente satisfeito, renovou contrato." fidelidade
"Sem novidades no momento." neutro
"Reduziram o número de usuários e questionaram o valor." fuga
"Elogiou atendimento, pretende expandir." fidelidade
"Avaliação neutra, sem novidades ou reclamações recentes." neutro
"Aguardando diretoria para decidir migração." fuga
"Cliente pediu upgrade de plano, está animado." fidelidade
"Chamado resolvido, mas avaliará outros fornecedores." fuga
"Tudo normal, projeto em andamento." neutro

📊 Métricas

  • Acurácia geral: 0.94

  • F1-Score (fuga): 0.91

  • F1-Score (fidelidade): 0.95

  • F1-Score (neutro): 0.86

  • Detalhes extras:

    • Matriz de confusão e métricas detalhadas disponíveis sob demanda
    • Validação cruzada estratificada (5-fold)
    • Classes balanceadas manualmente no pré-processamento

📚 Citação

Se usar este modelo, cite:

@misc{kanh2025bertfuga,
  author = {Vinicius Kanh},
  title = {BERT Fuga/ChurnSentinel: Modelo para detecção automática de fuga, fidelidade e neutralidade em clientes B2B},
  year = {2025},
  howpublished = {\url{https://huggingface.co/ViniciusKanh/bert-fuga-churnsentinel}}
}

👤 Autor

Nome: Vinicius de Souza Santos
Usuário: ViniciusKanh
Especialidade: Engenharia de Computação, Data Science, Customer Success, Modelos Preditivos de Churn

Sobre o Autor:
Vinicius de Souza Santos é Engenheiro de Computação formado pelo IFSP, com mais de 7 anos de experiência em projetos de tecnologia, ciência de dados e implantação de soluções para retenção e satisfação de clientes. Atua como líder técnico em projetos de integração entre Data Warehouses, CRMs e modelos de Machine Learning aplicados à experiência do cliente (CX/CS).

Licença:
Este modelo e o código associado são distribuídos sob a licença MIT, permitindo uso acadêmico e comercial mediante atribuição.


Desenvolvido com dedicação por Vinicius Kanh para a comunidade de Customer Success e Data Science.

Downloads last month
11
Safetensors
Model size
334M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ViniciusKhan/bert-fuga-churnsentinel

Finetuned
(5666)
this model