|
import os |
|
import gradio as gr |
|
from huggingface_hub import hf_hub_download, login |
|
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline |
|
from pptx import Presentation |
|
from pptx.util import Inches, Pt |
|
from pptx.enum.text import PP_ALIGN |
|
import torch |
|
from llama_cpp import Llama |
|
import time |
|
from PIL import Image |
|
import io |
|
import requests |
|
from diffusers import FluxPipeline |
|
|
|
|
|
|
|
# Configuration des modèles disponibles |
|
TEXT_MODELS = { |
|
"Mistral Nemo 2407 (GGUF)": "MisterAI/Bartowski_MistralAI_Mistral-Nemo-Instruct-2407-IQ4_XS.gguf", |
|
"Mixtral 8x7B": "mistralai/Mixtral-8x7B-v0.1", |
|
"Lucie 7B": "OpenLLM-France/Lucie-7B" |
|
} |
|
|
|
IMAGE_MODELS = { |
|
"FLUX.1": "black-forest-labs/FLUX.1-schnell", |
|
"ArtifyAI": "ImageInception/ArtifyAI-v1.1" |
|
} |
|
|
|
# Préprompt amélioré pour une meilleure structuration |
|
PREPROMPT = """Vous êtes un assistant IA expert en création de présentations PowerPoint professionnelles. |
|
Générez une présentation structurée et détaillée en suivant ce format EXACT: |
|
|
|
TITRE: [Titre principal de la présentation] |
|
|
|
DIAPO 1: |
|
Titre: [Titre de la diapo] |
|
Points: |
|
- Point 1 |
|
- Point 2 |
|
- Point 3 |
|
Image: [Description détaillée de l'image souhaitée pour cette diapo. Soyez très précis dans la description pour permettre |
|
une génération d'image de qualité. Par exemple : "Une illustration professionnelle montrant un concept clé de cybersécurité |
|
avec des éléments visuels modernes, un style épuré et des couleurs corporate (fond noir, couleurs bleu electrique, rouge, gris, blanc). |
|
L'image doit être claire, minimaliste et adaptée à une présentation professionnelle."] |
|
|
|
|
|
DIAPO 2: |
|
Titre: [Titre de la diapo] |
|
Points: |
|
- Point 1 |
|
- Point 2 |
|
- Point 3 |
|
Image: [Description détaillée de l'image souhaitée pour cette diapo] |
|
|
|
[Continuez avec ce format pour chaque diapositive] |
|
|
|
Analysez le texte suivant et créez une présentation professionnelle avec des descriptions d'images pertinentes :""" |
|
|
|
class PresentationGenerator: |
|
def __init__(self): |
|
self.token = os.getenv('Authentification_HF') |
|
if not self.token: |
|
raise ValueError("Token d'authentification HuggingFace non trouvé") |
|
login(self.token) |
|
self.text_model = None |
|
self.text_tokenizer = None |
|
self.image_pipeline = None |
|
|
|
def load_text_model(self, model_name): |
|
"""Charge le modèle de génération de texte""" |
|
model_id = TEXT_MODELS[model_name] |
|
if model_id.endswith('.gguf'): |
|
# Configuration pour les modèles GGUF |
|
model_path = hf_hub_download( |
|
repo_id=model_id.split('/')[0] + '/' + model_id.split('/')[1], |
|
filename=model_id.split('/')[-1], |
|
token=self.token |
|
) |
|
self.text_model = Llama( |
|
model_path=model_path, |
|
n_ctx=4096, |
|
n_batch=512, |
|
verbose=False |
|
) |
|
else: |
|
# Configuration pour les modèles Transformers standards |
|
self.text_tokenizer = AutoTokenizer.from_pretrained(model_id, token=self.token) |
|
self.text_model = AutoModelForCausalLM.from_pretrained( |
|
model_id, |
|
torch_dtype=torch.bfloat16, |
|
device_map="auto", |
|
token=self.token |
|
) |
|
|
|
# def load_image_model(self, model_name): |
|
# """Charge le modèle de génération d'images""" |
|
# model_id = IMAGE_MODELS[model_name] |
|
# self.image_pipeline = pipeline( |
|
# "text-to-image", |
|
# model=model_id, |
|
# token=self.token |
|
# ) |
|
|
|
##Modif01 : Correction Pour Flux Non Chargé sur HFSpace |
|
# def load_image_model(self, model_name): |
|
# """Charge le modèle de génération d'images""" |
|
# model_id = IMAGE_MODELS[model_name] |
|
# if model_id == "black-forest-labs/FLUX.1-schnell": |
|
# self.image_pipeline = FluxPipeline.from_pretrained( |
|
# model_id, |
|
# torch_dtype=torch.bfloat16 |
|
# ) |
|
# self.image_pipeline.enable_model_cpu_offload() # Économise de la VRAM en déchargeant le modèle sur le CPU |
|
# print(f"Modèle d'image FLUX chargé : {model_id}") |
|
# else: |
|
# self.image_pipeline = pipeline( |
|
# "text-to-image", |
|
# model=model_id, |
|
# token=self.token |
|
# ) |
|
# print(f"Modèle d'image chargé : {model_id}") |
|
|
|
|
|
##Modif02 : Correction Pour Flux Blocage Chargement a 71% sur HFSpace |
|
#Loading pipeline components...: 71%|███████▏ | 5/7 [00:05<00:01, 1.07it/s]You set `add_prefix_space`. |
|
#The tokenizer needs to be converted from the slow tokenizers |
|
#Loading pipeline components...: 71%|███████▏ | 5/7 [00:05<00:02, 1.15s/it] |
|
|
|
def load_image_model(self, model_name): |
|
"""Charge le modèle de génération d'images""" |
|
model_id = IMAGE_MODELS[model_name] |
|
if model_id == "black-forest-labs/FLUX.1-schnell": |
|
self.image_pipeline = FluxPipeline.from_pretrained( |
|
model_id, |
|
revision="refs/pr/1", # Utiliser une révision spécifique |
|
torch_dtype=torch.bfloat16 |
|
) |
|
self.image_pipeline.enable_model_cpu_offload() # Économise de la VRAM en déchargeant le modèle sur le CPU |
|
self.image_pipeline.tokenizer.add_prefix_space = False # Désactive add_prefix_space |
|
print(f"Modèle d'image FLUX chargé : {model_id}") |
|
else: |
|
self.image_pipeline = pipeline( |
|
"text-to-image", |
|
model=model_id, |
|
token=self.token |
|
) |
|
print(f"Modèle d'image chargé : {model_id}") |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
def generate_text(self, prompt, temperature=0.7, max_tokens=4096): |
|
"""Génère le texte de la présentation""" |
|
if isinstance(self.text_model, Llama): |
|
response = self.text_model( |
|
prompt, |
|
max_tokens=max_tokens, |
|
temperature=temperature, |
|
echo=False |
|
) |
|
return response['choices'][0]['text'] |
|
else: |
|
inputs = self.text_tokenizer.apply_chat_template( |
|
[{"role": "user", "content": prompt}], |
|
return_tensors="pt", |
|
return_dict=True |
|
) |
|
outputs = self.text_model.generate( |
|
|
|
max_new_tokens=max_tokens, |
|
temperature=temperature |
|
) |
|
return self.text_tokenizer.decode(outputs[0], skip_special_tokens=True) |
|
|
|
# def generate_image(self, prompt, negative_prompt="", num_inference_steps=30): |
|
# """Génère une image pour la diapositive""" |
|
# try: |
|
# image = self.image_pipeline( |
|
# prompt=prompt, |
|
# negative_prompt=negative_prompt, |
|
# num_inference_steps=num_inference_steps |
|
# )[0] # Pipeline retourne une liste d'images, on prend la première |
|
# return image |
|
# except Exception as e: |
|
# print(f"Erreur lors de la génération de l'image: {str(e)}") |
|
# return None |
|
|
|
|
|
##Modif01 : Correction Pour Flux Non Chargé sur HFSpace |
|
|
|
def generate_image(self, prompt, negative_prompt="", num_inference_steps=30): |
|
"""Génère une image pour la diapositive""" |
|
try: |
|
if isinstance(self.image_pipeline, FluxPipeline): |
|
image = self.image_pipeline( |
|
prompt=prompt, |
|
guidance_scale=0.0, |
|
num_inference_steps=num_inference_steps, |
|
max_sequence_length=256, |
|
generator=torch.Generator("cpu").manual_seed(0) |
|
).images[0] |
|
else: |
|
image = self.image_pipeline( |
|
prompt=prompt, |
|
negative_prompt=negative_prompt, |
|
num_inference_steps=num_inference_steps |
|
)[0] # Pipeline retourne une liste d'images, on prend la première |
|
return image |
|
except Exception as e: |
|
print(f"Erreur lors de la génération de l'image: {str(e)}") |
|
return None |
|
|
|
|
|
|
|
def parse_presentation_content(self, content): |
|
"""Parse le contenu généré en sections pour les diapositives""" |
|
slides = [] |
|
current_slide = None |
|
|
|
for line in content.split('\n'): |
|
line = line.strip() |
|
if line.startswith('TITRE:'): |
|
slides.append({'type': 'title', 'title': line[6:].strip()}) |
|
elif line.startswith('DIAPO'): |
|
if current_slide: |
|
slides.append(current_slide) |
|
current_slide = {'type': 'content', 'title': '', 'points': [], 'image_prompt': ''} |
|
elif line.startswith('Titre:') and current_slide: |
|
current_slide['title'] = line[6:].strip() |
|
elif line.startswith('- ') and current_slide: |
|
current_slide['points'].append(line[2:].strip()) |
|
elif line.startswith('Image:') and current_slide: |
|
current_slide['image_prompt'] = line[6:].strip() |
|
|
|
if current_slide: |
|
slides.append(current_slide) |
|
|
|
return slides |
|
|
|
def create_presentation(self, slides): |
|
"""Crée la présentation PowerPoint avec texte et images""" |
|
prs = Presentation() |
|
|
|
# Première diapo (titre) |
|
title_slide = prs.slides.add_slide(prs.slide_layouts[0]) |
|
title_slide.shapes.title.text = slides[0]['title'] |
|
|
|
# Autres diapos |
|
for slide in slides[1:]: |
|
content_slide = prs.slides.add_slide(prs.slide_layouts[1]) |
|
content_slide.shapes.title.text = slide['title'] |
|
|
|
# Ajout du texte |
|
if slide['points']: |
|
body = content_slide.shapes.placeholders[1].text_frame |
|
body.clear() |
|
for point in slide['points']: |
|
p = body.add_paragraph() |
|
p.text = point |
|
p.level = 0 |
|
|
|
# Ajout de l'image si disponible |
|
if slide.get('image_prompt'): |
|
image = self.generate_image(slide['image_prompt']) |
|
if image: |
|
# Sauvegarde temporaire de l'image |
|
img_path = f"temp_slide_{slides.index(slide)}.png" |
|
image.save(img_path) |
|
|
|
# Ajout de l'image à la diapositive |
|
left = Inches(1) |
|
top = Inches(2.5) |
|
content_slide.shapes.add_picture(img_path, left, top, height=Inches(4)) |
|
|
|
# Suppression du fichier temporaire |
|
os.remove(img_path) |
|
|
|
return prs |
|
|
|
def generate_presentation_with_progress(text, text_model_name, image_model_name, temperature, max_tokens, negative_prompt): |
|
"""Fonction principale de génération avec suivi de progression""" |
|
try: |
|
start_time = time.time() |
|
generator = PresentationGenerator() |
|
|
|
# Chargement des modèles |
|
yield "Chargement des modèles...", None, None |
|
generator.load_text_model(text_model_name) |
|
generator.load_image_model(image_model_name) |
|
|
|
# Génération du contenu |
|
yield "Génération du contenu de la présentation...", None, None |
|
full_prompt = PREPROMPT + "\n\n" + text |
|
generated_content = generator.generate_text(full_prompt, temperature, max_tokens) |
|
|
|
# Création de la présentation |
|
yield "Création de la présentation PowerPoint...", generated_content, None |
|
slides = generator.parse_presentation_content(generated_content) |
|
prs = generator.create_presentation(slides) |
|
|
|
# Sauvegarde |
|
output_path = "presentation.pptx" |
|
prs.save(output_path) |
|
|
|
execution_time = time.time() - start_time |
|
status = f"Présentation générée avec succès en {execution_time:.2f} secondes!" |
|
|
|
return status, generated_content, output_path |
|
|
|
except Exception as e: |
|
return f"Erreur: {str(e)}", None, None |
|
|
|
# CSS personnalisé pour un thème sombre amélioré |
|
css = """ |
|
|
|
.gradio-container { |
|
background-color: #000000 !important; |
|
} |
|
|
|
.gr-form, .gr-box, .gr-panel { |
|
border-radius: 8px !important; |
|
background-color: #1a1a1a !important; |
|
border: 1px solid #333333 !important; |
|
} |
|
|
|
.gr-input, .gr-textarea, .gr-dropdown { |
|
background-color: #2d2d2d !important; |
|
color: #ffffff !important; |
|
border: 1px solid #404040 !important; |
|
} |
|
|
|
.gr-button { |
|
background-color: #2d2d2d !important; |
|
color: #ffffff !important; |
|
border: 1px solid #404040 !important; |
|
transition: all 0.3s ease !important; |
|
} |
|
|
|
.gr-button:hover { |
|
background-color: #404040 !important; |
|
transform: translateY(-2px) !important; |
|
} |
|
|
|
|
|
h1, h2, h3, p, label, .gr-text { |
|
color: #ffffff !important; |
|
} |
|
|
|
|
|
::-webkit-scrollbar { |
|
width: 8px; |
|
height: 8px; |
|
} |
|
|
|
::-webkit-scrollbar-track { |
|
background: #1a1a1a; |
|
} |
|
|
|
::-webkit-scrollbar-thumb { |
|
background: #404040; |
|
border-radius: 4px; |
|
} |
|
|
|
::-webkit-scrollbar-thumb:hover { |
|
background: #4a4a4a; |
|
} |
|
""" |
|
|
|
with gr.Blocks(theme=gr.themes.Default(), css=css) as demo: |
|
gr.Markdown( |
|
""" |
|
# 🎯 Générateur de Présentations PowerPoint IA |
|
|
|
Créez des présentations professionnelles automatiquement avec l'aide de l'IA. |
|
""" |
|
) |
|
|
|
with gr.Row(): |
|
with gr.Column(scale=1): |
|
text_model_choice = gr.Dropdown( |
|
choices=list(TEXT_MODELS.keys()), |
|
value=list(TEXT_MODELS.keys())[0], |
|
label="Modèle de génération de texte" |
|
) |
|
image_model_choice = gr.Dropdown( |
|
choices=list(IMAGE_MODELS.keys()), |
|
value=list(IMAGE_MODELS.keys())[0], |
|
label="Modèle de génération d'images" |
|
) |
|
temperature = gr.Slider( |
|
minimum=0.1, |
|
maximum=1.0, |
|
value=0.7, |
|
step=0.1, |
|
label="Température" |
|
) |
|
max_tokens = gr.Slider( |
|
minimum=1000, |
|
maximum=4096, |
|
value=2048, |
|
step=256, |
|
label="Tokens maximum" |
|
) |
|
negative_prompt = gr.Textbox( |
|
lines=2, |
|
label="Prompt négatif pour les images", |
|
placeholder="Ce que vous ne voulez pas voir dans les images..." |
|
) |
|
|
|
with gr.Row(): |
|
with gr.Column(scale=2): |
|
input_text = gr.Textbox( |
|
lines=10, |
|
label="Votre texte", |
|
placeholder="Décrivez le contenu que vous souhaitez pour votre présentation..." |
|
) |
|
# Modification du composant File pour supprimer l'argument multiple |
|
file_upload = gr.File( |
|
label="Documents de référence (PDF, Images)", |
|
file_types=["pdf", "png", "jpg", "jpeg"] |
|
) |
|
|
|
with gr.Row(): |
|
generate_btn = gr.Button("🚀 Générer la présentation", variant="primary") |
|
|
|
with gr.Row(): |
|
with gr.Column(): |
|
status_output = gr.Textbox( |
|
label="Statut", |
|
lines=2 |
|
) |
|
generated_content = gr.Textbox( |
|
label="Contenu généré", |
|
lines=10, |
|
show_copy_button=True |
|
) |
|
output_file = gr.File( |
|
label="Présentation PowerPoint" |
|
) |
|
|
|
generate_btn.click( |
|
fn=generate_presentation_with_progress, |
|
inputs=[ |
|
input_text, |
|
text_model_choice, |
|
image_model_choice, |
|
temperature, |
|
max_tokens, |
|
negative_prompt |
|
], |
|
outputs=[ |
|
status_output, |
|
generated_content, |
|
output_file |
|
] |
|
) |
|
|
|
if __name__ == "__main__": |
|
demo.launch() |