Spaces:
Sleeping
Sleeping
File size: 7,762 Bytes
077989f |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 |
# 📖 Manual de Uso - LoRA Trainer Funcional
## 🎯 Visão Geral
Este LoRA Trainer é uma ferramenta **100% funcional** baseada no kohya-ss sd-scripts que permite treinar modelos LoRA reais para Stable Diffusion. A ferramenta foi desenvolvida especificamente para funcionar no Hugging Face Spaces e oferece todas as funcionalidades necessárias para um treinamento profissional.
## 🚀 Início Rápido
### Passo 1: Instalação das Dependências
1. Acesse a aba "🔧 Instalação"
2. Clique em "📦 Instalar Dependências"
3. Aguarde a instalação completa (pode levar alguns minutos)
### Passo 2: Configuração do Projeto
1. Vá para a aba "📁 Configuração do Projeto"
2. Digite um nome único para seu projeto (ex: "meu_lora_anime")
3. Escolha um modelo base ou insira uma URL personalizada
4. Clique em "📥 Baixar Modelo"
### Passo 3: Preparação do Dataset
1. Organize suas imagens em uma pasta local
2. Para cada imagem, crie um arquivo .txt com o mesmo nome
3. Compacte tudo em um arquivo ZIP
4. Faça upload na seção "📊 Upload do Dataset"
5. Clique em "📊 Processar Dataset"
### Passo 4: Configuração dos Parâmetros
1. Acesse a aba "⚙️ Parâmetros de Treinamento"
2. Ajuste os parâmetros conforme sua necessidade
3. Use as configurações recomendadas como ponto de partida
### Passo 5: Treinamento
1. Vá para a aba "🚀 Treinamento"
2. Clique em "📝 Criar Configuração de Treinamento"
3. Clique em "🎯 Iniciar Treinamento"
4. Acompanhe o progresso em tempo real
### Passo 6: Download dos Resultados
1. Acesse a aba "📥 Download dos Resultados"
2. Clique em "🔄 Atualizar Lista de Arquivos"
3. Selecione e baixe seu LoRA treinado
## 📋 Requisitos do Sistema
### Mínimos
- **GPU**: NVIDIA com 6GB VRAM
- **RAM**: 8GB
- **Espaço**: 5GB livres
### Recomendados
- **GPU**: NVIDIA com 12GB+ VRAM
- **RAM**: 16GB+
- **Espaço**: 20GB+ livres
## 🎨 Preparação do Dataset
### Estrutura Recomendada
```
meu_dataset/
├── imagem001.jpg
├── imagem001.txt
├── imagem002.png
├── imagem002.txt
├── imagem003.webp
├── imagem003.txt
└── ...
```
### Formatos Suportados
- **Imagens**: JPG, PNG, WEBP, BMP, TIFF
- **Captions**: TXT (UTF-8)
### Exemplo de Caption
```
1girl, long hair, blue eyes, school uniform, smile, outdoors, cherry blossoms, anime style, high quality
```
### Dicas para Captions
- Use vírgulas para separar tags
- Coloque tags importantes no início
- Seja específico mas conciso
- Use tags consistentes em todo o dataset
## ⚙️ Configuração de Parâmetros
### Parâmetros Básicos
#### Resolução
- **512px**: Padrão, mais rápido, menor uso de memória
- **768px**: Melhor qualidade, moderado
- **1024px**: Máxima qualidade, mais lento
#### Batch Size
- **1**: Menor uso de memória, mais lento
- **2-4**: Equilibrado (recomendado)
- **8+**: Apenas para GPUs potentes
#### Épocas
- **5-10**: Para datasets grandes (50+ imagens)
- **10-20**: Para datasets médios (20-50 imagens)
- **20-30**: Para datasets pequenos (10-20 imagens)
### Parâmetros Avançados
#### Learning Rate
- **1e-3**: Muito alto, pode causar instabilidade
- **5e-4**: Padrão, bom para a maioria dos casos
- **1e-4**: Conservador, para datasets grandes
- **5e-5**: Muito baixo, treinamento lento
#### Network Dimension
- **8-16**: LoRAs pequenos, menos detalhes
- **32**: Padrão, bom equilíbrio
- **64-128**: Mais detalhes, arquivos maiores
#### Network Alpha
- Geralmente metade do Network Dimension
- Controla a força do LoRA
- Valores menores = efeito mais sutil
### Tipos de LoRA
#### LoRA Clássico
- Menor tamanho de arquivo
- Bom para uso geral
- Mais rápido para treinar
#### LoCon
- Melhor para estilos artísticos
- Mais camadas de aprendizado
- Arquivos maiores
## 🎯 Configurações por Tipo de Projeto
### Para Personagens/Pessoas
```
Imagens: 15-30 variadas
Network Dim: 32
Network Alpha: 16
Learning Rate: 1e-4
Épocas: 10-15
Batch Size: 2
```
### Para Estilos Artísticos
```
Imagens: 30-50 do estilo
Tipo: LoCon
Network Dim: 64
Network Alpha: 32
Learning Rate: 5e-5
Épocas: 15-25
Batch Size: 1-2
```
### Para Objetos/Conceitos
```
Imagens: 10-25
Network Dim: 16
Network Alpha: 8
Learning Rate: 5e-4
Épocas: 8-12
Batch Size: 2-4
```
## 🔧 Solução de Problemas
### Erro de Memória (CUDA OOM)
**Sintomas**: "CUDA out of memory"
**Soluções**:
- Reduza o batch size para 1
- Diminua a resolução para 512px
- Use mixed precision fp16
### Treinamento Muito Lento
**Sintomas**: Progresso muito lento
**Soluções**:
- Aumente o batch size (se possível)
- Use resolução menor
- Verifique se xFormers está ativo
### Resultados Ruins/Overfitting
**Sintomas**: LoRA não funciona ou muito forte
**Soluções**:
- Reduza o learning rate
- Diminua o número de épocas
- Use mais imagens variadas
- Ajuste network alpha
### Erro de Configuração
**Sintomas**: Falha ao criar configuração
**Soluções**:
- Verifique se o modelo foi baixado
- Confirme que o dataset foi processado
- Reinicie a aplicação
## 📊 Monitoramento do Treinamento
### Métricas Importantes
- **Loss**: Deve diminuir gradualmente
- **Learning Rate**: Varia conforme scheduler
- **Tempo por Época**: Depende do hardware
### Sinais de Bom Treinamento
- Loss diminui consistentemente
- Sem erros de memória
- Progresso estável
### Sinais de Problemas
- Loss oscila muito
- Erros frequentes
- Progresso muito lento
## 💾 Gerenciamento de Arquivos
### Estrutura de Saída
```
/tmp/lora_training/projects/meu_projeto/
├── dataset/ # Imagens processadas
├── output/ # LoRAs gerados
├── logs/ # Logs do treinamento
├── dataset_config.toml
└── training_config.toml
```
### Arquivos Gerados
- **projeto_epoch_0001.safetensors**: LoRA da época 1
- **projeto_epoch_0010.safetensors**: LoRA da época 10
- **logs/**: Logs detalhados do TensorBoard
## 🎨 Uso dos LoRAs Treinados
### No Automatic1111
1. Copie o arquivo .safetensors para `models/Lora/`
2. Use na prompt: `<lora:nome_do_arquivo:0.8>`
3. Ajuste o peso (0.1 a 1.5)
### No ComfyUI
1. Coloque o arquivo em `models/loras/`
2. Use o nó "Load LoRA"
3. Conecte ao modelo
### Pesos Recomendados
- **0.3-0.6**: Efeito sutil
- **0.7-1.0**: Efeito padrão
- **1.1-1.5**: Efeito forte
## 🔄 Melhores Práticas
### Antes do Treinamento
1. **Qualidade sobre Quantidade**: 20 imagens boas > 100 ruins
2. **Variedade**: Use ângulos, poses e cenários diferentes
3. **Consistência**: Mantenha estilo consistente nas captions
4. **Backup**: Salve configurações que funcionaram
### Durante o Treinamento
1. **Monitore**: Acompanhe o progresso regularmente
2. **Paciência**: Não interrompa sem necessidade
3. **Recursos**: Monitore uso de GPU/RAM
### Após o Treinamento
1. **Teste**: Experimente diferentes pesos
2. **Compare**: Teste épocas diferentes
3. **Documente**: Anote configurações que funcionaram
4. **Compartilhe**: Considere compartilhar bons resultados
## 🆘 Suporte e Recursos
### Documentação Adicional
- [Guia Oficial kohya-ss](https://github.com/kohya-ss/sd-scripts)
- [Documentação Diffusers](https://huggingface.co/docs/diffusers)
- [Comunidade Stable Diffusion](https://discord.gg/stable-diffusion)
### Logs e Debug
- Verifique os logs em `/tmp/lora_training/projects/seu_projeto/logs/`
- Use TensorBoard para visualizar métricas
- Salve configurações que funcionaram bem
### Limitações Conhecidas
- Requer GPU NVIDIA com CUDA
- Modelos grandes podem precisar de mais memória
- Treinamento pode ser lento em hardware limitado
---
**Nota**: Esta ferramenta é para fins educacionais e de pesquisa. Use responsavelmente e respeite direitos autorais das imagens utilizadas.
|