MisterAI commited on
Commit
5fb158d
·
verified ·
1 Parent(s): 150c209

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +19 -5
app.py CHANGED
@@ -51,9 +51,14 @@ class PresentationGenerator:
51
  login(self.token)
52
  self.text_model = None
53
  self.text_tokenizer = None
 
54
 
55
  def load_text_model(self, model_name):
56
  """Charge le modèle de génération de texte"""
 
 
 
 
57
  model_id = TEXT_MODELS[model_name]
58
  model_path = None
59
 
@@ -87,6 +92,8 @@ class PresentationGenerator:
87
  )
88
  print(f"Modèle Transformers {model_id} chargé avec succès!")
89
 
 
 
90
  def generate_text(self, prompt, temperature=0.7, max_tokens=4096):
91
  """Génère le texte de la présentation"""
92
  start_time = time.time()
@@ -103,7 +110,8 @@ class PresentationGenerator:
103
  outputs = self.text_model.generate(
104
  **inputs,
105
  max_new_tokens=max_tokens,
106
- temperature=temperature
 
107
  )
108
  generated_text = self.text_tokenizer.decode(outputs[0], skip_special_tokens=True)
109
 
@@ -159,18 +167,18 @@ class PresentationGenerator:
159
 
160
  return prs
161
 
162
- def generate_skeleton(text, text_model_name, temperature, max_tokens):
163
  """Génère le squelette de la présentation"""
164
  try:
165
  start_time = time.time()
166
  generator = PresentationGenerator()
167
 
168
  # Chargement du modèle de texte uniquement
169
- yield "Chargement du modèle...", None, None
170
  generator.load_text_model(text_model_name)
171
 
172
  # Génération du contenu
173
- yield "Génération du contenu de la présentation...", None, None
174
  full_prompt = PREPROMPT + "\n\n" + text
175
  generated_content = generator.generate_text(full_prompt, temperature, max_tokens)
176
 
@@ -274,7 +282,8 @@ with gr.Blocks(theme=gr.themes.Glass()) as demo:
274
  input_text,
275
  text_model_choice,
276
  temperature,
277
- max_tokens
 
278
  ],
279
  outputs=[
280
  status_output,
@@ -298,3 +307,8 @@ if __name__ == "__main__":
298
 
299
 
300
 
 
 
 
 
 
 
51
  login(self.token)
52
  self.text_model = None
53
  self.text_tokenizer = None
54
+ self.loaded_model = None
55
 
56
  def load_text_model(self, model_name):
57
  """Charge le modèle de génération de texte"""
58
+ if self.loaded_model == model_name:
59
+ print(f"Modèle {model_name} déjà chargé.")
60
+ return
61
+
62
  model_id = TEXT_MODELS[model_name]
63
  model_path = None
64
 
 
92
  )
93
  print(f"Modèle Transformers {model_id} chargé avec succès!")
94
 
95
+ self.loaded_model = model_name
96
+
97
  def generate_text(self, prompt, temperature=0.7, max_tokens=4096):
98
  """Génère le texte de la présentation"""
99
  start_time = time.time()
 
110
  outputs = self.text_model.generate(
111
  **inputs,
112
  max_new_tokens=max_tokens,
113
+ temperature=temperature,
114
+ do_sample=True
115
  )
116
  generated_text = self.text_tokenizer.decode(outputs[0], skip_special_tokens=True)
117
 
 
167
 
168
  return prs
169
 
170
+ def generate_skeleton(text, text_model_name, temperature, max_tokens, progress=gr.Progress()):
171
  """Génère le squelette de la présentation"""
172
  try:
173
  start_time = time.time()
174
  generator = PresentationGenerator()
175
 
176
  # Chargement du modèle de texte uniquement
177
+ progress(0, desc="Chargement du modèle...")
178
  generator.load_text_model(text_model_name)
179
 
180
  # Génération du contenu
181
+ progress(0.5, desc="Génération du contenu de la présentation...")
182
  full_prompt = PREPROMPT + "\n\n" + text
183
  generated_content = generator.generate_text(full_prompt, temperature, max_tokens)
184
 
 
282
  input_text,
283
  text_model_choice,
284
  temperature,
285
+ max_tokens,
286
+ progress_bar
287
  ],
288
  outputs=[
289
  status_output,
 
307
 
308
 
309
 
310
+
311
+
312
+
313
+
314
+