MisterAI commited on
Commit
81e6960
·
verified ·
1 Parent(s): 6fdbcdb

Create app.py

Browse files
Files changed (1) hide show
  1. app.py +107 -0
app.py ADDED
@@ -0,0 +1,107 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import os
2
+ import gradio as gr
3
+ from huggingface_hub import login
4
+ from diffusers import FluxPipeline
5
+ import torch
6
+ from PIL import Image
7
+ import fitz # PyMuPDF pour la gestion des PDF
8
+
9
+ def load_pdf(pdf_path):
10
+ """Extrait le texte d'un fichier PDF"""
11
+ if pdf_path is None:
12
+ return None
13
+ text = ""
14
+ try:
15
+ doc = fitz.open(pdf_path)
16
+ for page in doc:
17
+ text += page.get_text()
18
+ doc.close()
19
+ return text
20
+ except Exception as e:
21
+ print(f"Erreur lors de la lecture du PDF: {str(e)}")
22
+ return None
23
+
24
+ class FluxGenerator:
25
+ def __init__(self):
26
+ self.token = os.getenv('Authentification_HF')
27
+ if not self.token:
28
+ raise ValueError("Token d'authentification HuggingFace non trouvé")
29
+ login(self.token)
30
+ self.pipeline = None
31
+ self.load_model()
32
+
33
+ def load_model(self):
34
+ """Charge le modèle FLUX avec des paramètres optimisés"""
35
+ try:
36
+ print("Chargement du modèle FLUX...")
37
+ self.pipeline = FluxPipeline.from_pretrained(
38
+ "black-forest-labs/FLUX.1-schnell",
39
+ revision="refs/pr/1",
40
+ torch_dtype=torch.bfloat16
41
+ )
42
+ self.pipeline.enable_model_cpu_offload()
43
+ self.pipeline.tokenizer.add_prefix_space = False
44
+ print("Modèle FLUX chargé avec succès!")
45
+ except Exception as e:
46
+ print(f"Erreur lors du chargement du modèle: {str(e)}")
47
+ raise
48
+
49
+ def generate_image(self, prompt, reference_image=None, pdf_file=None):
50
+ """Génère une image à partir d'un prompt et optionnellement une référence"""
51
+ try:
52
+ # Si un PDF est fourni, ajoute son contenu au prompt
53
+ if pdf_file is not None:
54
+ pdf_text = load_pdf(pdf_file)
55
+ if pdf_text:
56
+ prompt = f"{prompt}\nContexte du PDF:\n{pdf_text}"
57
+
58
+ # Génération de l'image
59
+ image = self.pipeline(
60
+ prompt=prompt,
61
+ num_inference_steps=30,
62
+ guidance_scale=0.0,
63
+ max_sequence_length=256,
64
+ generator=torch.Generator("cpu").manual_seed(0)
65
+ ).images[0]
66
+
67
+ return image
68
+
69
+ except Exception as e:
70
+ print(f"Erreur lors de la génération de l'image: {str(e)}")
71
+ return None
72
+
73
+ # Instance globale du générateur
74
+ generator = FluxGenerator()
75
+
76
+ def generate(prompt, reference_file):
77
+ """Fonction de génération pour l'interface Gradio"""
78
+ try:
79
+ # Détermine si le fichier de référence est une image ou un PDF
80
+ if reference_file is not None:
81
+ file_type = reference_file.name.split('.')[-1].lower()
82
+ if file_type in ['pdf']:
83
+ return generator.generate_image(prompt, pdf_file=reference_file.name)
84
+ elif file_type in ['png', 'jpg', 'jpeg']:
85
+ return generator.generate_image(prompt, reference_image=reference_file.name)
86
+
87
+ # Génération sans référence
88
+ return generator.generate_image(prompt)
89
+
90
+ except Exception as e:
91
+ print(f"Erreur: {str(e)}")
92
+ return None
93
+
94
+ # Interface Gradio simple
95
+ demo = gr.Interface(
96
+ fn=generate,
97
+ inputs=[
98
+ gr.Textbox(label="Prompt", placeholder="Décrivez l'image que vous souhaitez générer..."),
99
+ gr.File(label="Image ou PDF de référence (optionnel)", type="file")
100
+ ],
101
+ outputs=gr.Image(label="Image générée"),
102
+ title="Test du modèle FLUX",
103
+ description="Interface simple pour tester la génération d'images avec FLUX"
104
+ )
105
+
106
+ if __name__ == "__main__":
107
+ demo.launch()