File size: 4,853 Bytes
d978e81 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 |
import os
import gradio as gr
from huggingface_hub import hf_hub_download
from transformers import AutoModelForCausalLM, AutoTokenizer
from pptx import Presentation
from pptx.util import Inches, Pt
from pptx.enum.text import PP_ALIGN
from huggingface_hub import login
import torch
# Préprompt amélioré pour une meilleure structuration
PREPROMPT = """Vous êtes un assistant IA chargé de générer une présentation PowerPoint. Générez une présentation structurée en suivant ce format EXACT:
TITRE: [Titre principal de la présentation]
DIAPO 1:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
DIAPO 2:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
[Continuez avec ce format pour chaque diapositive]
Analysez le texte suivant et créez une présentation claire et professionnelle :"""
# Authentification HuggingFace
token = os.getenv('Authentification_HF')
login(token)
model_id = "mistralai/Mistral-Nemo-Instruct-2407"
# Initialisation du modèle avec des paramètres de contexte plus grands
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto")
def parse_presentation_content(content):
"""Parse le contenu généré en sections pour les diapositives"""
slides = []
current_slide = None
for line in content.split('\n'):
line = line.strip()
if line.startswith('TITRE:'):
slides.append({'type': 'title', 'title': line[6:].strip()})
elif line.startswith('DIAPO'):
if current_slide:
slides.append(current_slide)
current_slide = {'type': 'content', 'title': '', 'points': []}
elif line.startswith('Titre:') and current_slide:
current_slide['title'] = line[6:].strip()
elif line.startswith('- ') and current_slide:
current_slide['points'].append(line[2:].strip())
if current_slide:
slides.append(current_slide)
return slides
def create_presentation(slides):
"""Crée la présentation PowerPoint à partir des sections parsées"""
prs = Presentation()
# Première diapo (titre)
title_slide = prs.slides.add_slide(prs.slide_layouts[0])
title_slide.shapes.title.text = slides[0]['title']
# Autres diapos
for slide in slides[1:]:
content_slide = prs.slides.add_slide(prs.slide_layouts[1])
content_slide.shapes.title.text = slide['title']
if slide['points']:
body = content_slide.shapes.placeholders[1].text_frame
body.clear()
for point in slide['points']:
p = body.add_paragraph()
p.text = point
p.level = 0
return prs
def generate_presentation(text):
# Ajout du préprompt au texte de l'utilisateur
full_prompt = PREPROMPT + "\n\n" + text
# Génération du contenu avec le modèle
inputs = tokenizer.apply_chat_template(
[{"role": "user", "content": full_prompt}],
return_tensors="pt",
return_dict=True
)
# Suppression du paramètre 'stop' qui n'est pas supporté
outputs = model.generate(
**inputs,
max_new_tokens=4096,
temperature=0.3
)
# Extraction du texte généré
generated_content = tokenizer.decode(outputs[0], skip_special_tokens=True)
# Parse le contenu et crée la présentation
slides = parse_presentation_content(generated_content)
prs = create_presentation(slides)
# Sauvegarde de la présentation
output_path = "presentation.pptx"
prs.save(output_path)
return f"Présentation générée avec succès ! Vous pouvez la télécharger ici : {os.path.abspath(output_path)}"
# Interface Gradio avec thème sombre personnalisé
css = """
.gradio-container {
background-color: #1a1a1a !important;
color: #ffffff !important;
}
.input-textbox, .output-textbox {
background-color: #2d2d2d !important;
color: #ffffff !important;
border: 1px solid #404040 !important;
}
.label-text {
color: #ffffff !important;
}
"""
# Interface Gradio avec une zone de texte plus grande et thème sombre
demo = gr.Interface(
fn=generate_presentation,
inputs=gr.Textbox(
lines=10,
label="Entrez votre texte",
max_lines=50,
placeholder="Décrivez le contenu que vous souhaitez pour votre présentation...",
),
outputs=gr.Textbox(label="Statut"),
title="Générateur de Présentations PowerPoint",
description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement.",
theme="darkhuggingface", # Utilisation du thème sombre de HuggingFace
css=css # Application du CSS personnalisé
)
if __name__ == "__main__":
demo.launch() |