LT / MANUAL_DE_USO.md
Allex21's picture
Upload 4 files
077989f verified

A newer version of the Gradio SDK is available: 5.49.1

Upgrade

📖 Manual de Uso - LoRA Trainer Funcional

🎯 Visão Geral

Este LoRA Trainer é uma ferramenta 100% funcional baseada no kohya-ss sd-scripts que permite treinar modelos LoRA reais para Stable Diffusion. A ferramenta foi desenvolvida especificamente para funcionar no Hugging Face Spaces e oferece todas as funcionalidades necessárias para um treinamento profissional.

🚀 Início Rápido

Passo 1: Instalação das Dependências

  1. Acesse a aba "🔧 Instalação"
  2. Clique em "📦 Instalar Dependências"
  3. Aguarde a instalação completa (pode levar alguns minutos)

Passo 2: Configuração do Projeto

  1. Vá para a aba "📁 Configuração do Projeto"
  2. Digite um nome único para seu projeto (ex: "meu_lora_anime")
  3. Escolha um modelo base ou insira uma URL personalizada
  4. Clique em "📥 Baixar Modelo"

Passo 3: Preparação do Dataset

  1. Organize suas imagens em uma pasta local
  2. Para cada imagem, crie um arquivo .txt com o mesmo nome
  3. Compacte tudo em um arquivo ZIP
  4. Faça upload na seção "📊 Upload do Dataset"
  5. Clique em "📊 Processar Dataset"

Passo 4: Configuração dos Parâmetros

  1. Acesse a aba "⚙️ Parâmetros de Treinamento"
  2. Ajuste os parâmetros conforme sua necessidade
  3. Use as configurações recomendadas como ponto de partida

Passo 5: Treinamento

  1. Vá para a aba "🚀 Treinamento"
  2. Clique em "📝 Criar Configuração de Treinamento"
  3. Clique em "🎯 Iniciar Treinamento"
  4. Acompanhe o progresso em tempo real

Passo 6: Download dos Resultados

  1. Acesse a aba "📥 Download dos Resultados"
  2. Clique em "🔄 Atualizar Lista de Arquivos"
  3. Selecione e baixe seu LoRA treinado

📋 Requisitos do Sistema

Mínimos

  • GPU: NVIDIA com 6GB VRAM
  • RAM: 8GB
  • Espaço: 5GB livres

Recomendados

  • GPU: NVIDIA com 12GB+ VRAM
  • RAM: 16GB+
  • Espaço: 20GB+ livres

🎨 Preparação do Dataset

Estrutura Recomendada

meu_dataset/
├── imagem001.jpg
├── imagem001.txt
├── imagem002.png
├── imagem002.txt
├── imagem003.webp
├── imagem003.txt
└── ...

Formatos Suportados

  • Imagens: JPG, PNG, WEBP, BMP, TIFF
  • Captions: TXT (UTF-8)

Exemplo de Caption

1girl, long hair, blue eyes, school uniform, smile, outdoors, cherry blossoms, anime style, high quality

Dicas para Captions

  • Use vírgulas para separar tags
  • Coloque tags importantes no início
  • Seja específico mas conciso
  • Use tags consistentes em todo o dataset

⚙️ Configuração de Parâmetros

Parâmetros Básicos

Resolução

  • 512px: Padrão, mais rápido, menor uso de memória
  • 768px: Melhor qualidade, moderado
  • 1024px: Máxima qualidade, mais lento

Batch Size

  • 1: Menor uso de memória, mais lento
  • 2-4: Equilibrado (recomendado)
  • 8+: Apenas para GPUs potentes

Épocas

  • 5-10: Para datasets grandes (50+ imagens)
  • 10-20: Para datasets médios (20-50 imagens)
  • 20-30: Para datasets pequenos (10-20 imagens)

Parâmetros Avançados

Learning Rate

  • 1e-3: Muito alto, pode causar instabilidade
  • 5e-4: Padrão, bom para a maioria dos casos
  • 1e-4: Conservador, para datasets grandes
  • 5e-5: Muito baixo, treinamento lento

Network Dimension

  • 8-16: LoRAs pequenos, menos detalhes
  • 32: Padrão, bom equilíbrio
  • 64-128: Mais detalhes, arquivos maiores

Network Alpha

  • Geralmente metade do Network Dimension
  • Controla a força do LoRA
  • Valores menores = efeito mais sutil

Tipos de LoRA

LoRA Clássico

  • Menor tamanho de arquivo
  • Bom para uso geral
  • Mais rápido para treinar

LoCon

  • Melhor para estilos artísticos
  • Mais camadas de aprendizado
  • Arquivos maiores

🎯 Configurações por Tipo de Projeto

Para Personagens/Pessoas

Imagens: 15-30 variadas
Network Dim: 32
Network Alpha: 16
Learning Rate: 1e-4
Épocas: 10-15
Batch Size: 2

Para Estilos Artísticos

Imagens: 30-50 do estilo
Tipo: LoCon
Network Dim: 64
Network Alpha: 32
Learning Rate: 5e-5
Épocas: 15-25
Batch Size: 1-2

Para Objetos/Conceitos

Imagens: 10-25
Network Dim: 16
Network Alpha: 8
Learning Rate: 5e-4
Épocas: 8-12
Batch Size: 2-4

🔧 Solução de Problemas

Erro de Memória (CUDA OOM)

Sintomas: "CUDA out of memory" Soluções:

  • Reduza o batch size para 1
  • Diminua a resolução para 512px
  • Use mixed precision fp16

Treinamento Muito Lento

Sintomas: Progresso muito lento Soluções:

  • Aumente o batch size (se possível)
  • Use resolução menor
  • Verifique se xFormers está ativo

Resultados Ruins/Overfitting

Sintomas: LoRA não funciona ou muito forte Soluções:

  • Reduza o learning rate
  • Diminua o número de épocas
  • Use mais imagens variadas
  • Ajuste network alpha

Erro de Configuração

Sintomas: Falha ao criar configuração Soluções:

  • Verifique se o modelo foi baixado
  • Confirme que o dataset foi processado
  • Reinicie a aplicação

📊 Monitoramento do Treinamento

Métricas Importantes

  • Loss: Deve diminuir gradualmente
  • Learning Rate: Varia conforme scheduler
  • Tempo por Época: Depende do hardware

Sinais de Bom Treinamento

  • Loss diminui consistentemente
  • Sem erros de memória
  • Progresso estável

Sinais de Problemas

  • Loss oscila muito
  • Erros frequentes
  • Progresso muito lento

💾 Gerenciamento de Arquivos

Estrutura de Saída

/tmp/lora_training/projects/meu_projeto/
├── dataset/          # Imagens processadas
├── output/           # LoRAs gerados
├── logs/            # Logs do treinamento
├── dataset_config.toml
└── training_config.toml

Arquivos Gerados

  • projeto_epoch_0001.safetensors: LoRA da época 1
  • projeto_epoch_0010.safetensors: LoRA da época 10
  • logs/: Logs detalhados do TensorBoard

🎨 Uso dos LoRAs Treinados

No Automatic1111

  1. Copie o arquivo .safetensors para models/Lora/
  2. Use na prompt: <lora:nome_do_arquivo:0.8>
  3. Ajuste o peso (0.1 a 1.5)

No ComfyUI

  1. Coloque o arquivo em models/loras/
  2. Use o nó "Load LoRA"
  3. Conecte ao modelo

Pesos Recomendados

  • 0.3-0.6: Efeito sutil
  • 0.7-1.0: Efeito padrão
  • 1.1-1.5: Efeito forte

🔄 Melhores Práticas

Antes do Treinamento

  1. Qualidade sobre Quantidade: 20 imagens boas > 100 ruins
  2. Variedade: Use ângulos, poses e cenários diferentes
  3. Consistência: Mantenha estilo consistente nas captions
  4. Backup: Salve configurações que funcionaram

Durante o Treinamento

  1. Monitore: Acompanhe o progresso regularmente
  2. Paciência: Não interrompa sem necessidade
  3. Recursos: Monitore uso de GPU/RAM

Após o Treinamento

  1. Teste: Experimente diferentes pesos
  2. Compare: Teste épocas diferentes
  3. Documente: Anote configurações que funcionaram
  4. Compartilhe: Considere compartilhar bons resultados

🆘 Suporte e Recursos

Documentação Adicional

Logs e Debug

  • Verifique os logs em /tmp/lora_training/projects/seu_projeto/logs/
  • Use TensorBoard para visualizar métricas
  • Salve configurações que funcionaram bem

Limitações Conhecidas

  • Requer GPU NVIDIA com CUDA
  • Modelos grandes podem precisar de mais memória
  • Treinamento pode ser lento em hardware limitado

Nota: Esta ferramenta é para fins educacionais e de pesquisa. Use responsavelmente e respeite direitos autorais das imagens utilizadas.