File size: 4,853 Bytes
d978e81
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
import os
import gradio as gr
from huggingface_hub import hf_hub_download
from transformers import AutoModelForCausalLM, AutoTokenizer
from pptx import Presentation
from pptx.util import Inches, Pt
from pptx.enum.text import PP_ALIGN
from huggingface_hub import login
import torch

# Préprompt amélioré pour une meilleure structuration
PREPROMPT = """Vous êtes un assistant IA chargé de générer une présentation PowerPoint. Générez une présentation structurée en suivant ce format EXACT:

TITRE: [Titre principal de la présentation]
DIAPO 1:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
DIAPO 2:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
[Continuez avec ce format pour chaque diapositive]

Analysez le texte suivant et créez une présentation claire et professionnelle :"""

# Authentification HuggingFace
token = os.getenv('Authentification_HF')
login(token)
model_id = "mistralai/Mistral-Nemo-Instruct-2407"

# Initialisation du modèle avec des paramètres de contexte plus grands
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto")

def parse_presentation_content(content):
    """Parse le contenu généré en sections pour les diapositives"""
    slides = []
    current_slide = None
    
    for line in content.split('\n'):
        line = line.strip()
        if line.startswith('TITRE:'):
            slides.append({'type': 'title', 'title': line[6:].strip()})
        elif line.startswith('DIAPO'):
            if current_slide:
                slides.append(current_slide)
            current_slide = {'type': 'content', 'title': '', 'points': []}
        elif line.startswith('Titre:') and current_slide:
            current_slide['title'] = line[6:].strip()
        elif line.startswith('- ') and current_slide:
            current_slide['points'].append(line[2:].strip())
    
    if current_slide:
        slides.append(current_slide)
    
    return slides

def create_presentation(slides):
    """Crée la présentation PowerPoint à partir des sections parsées"""
    prs = Presentation()
    
    # Première diapo (titre)
    title_slide = prs.slides.add_slide(prs.slide_layouts[0])
    title_slide.shapes.title.text = slides[0]['title']
    
    # Autres diapos
    for slide in slides[1:]:
        content_slide = prs.slides.add_slide(prs.slide_layouts[1])
        content_slide.shapes.title.text = slide['title']
        
        if slide['points']:
            body = content_slide.shapes.placeholders[1].text_frame
            body.clear()
            for point in slide['points']:
                p = body.add_paragraph()
                p.text = point
                p.level = 0
    
    return prs

def generate_presentation(text):
    # Ajout du préprompt au texte de l'utilisateur
    full_prompt = PREPROMPT + "\n\n" + text
    
    # Génération du contenu avec le modèle
    inputs = tokenizer.apply_chat_template(
        [{"role": "user", "content": full_prompt}],
        return_tensors="pt",
        return_dict=True
    )
    
    # Suppression du paramètre 'stop' qui n'est pas supporté
    outputs = model.generate(
        **inputs,
        max_new_tokens=4096,
        temperature=0.3
    )
    
    # Extraction du texte généré
    generated_content = tokenizer.decode(outputs[0], skip_special_tokens=True)
    
    # Parse le contenu et crée la présentation
    slides = parse_presentation_content(generated_content)
    prs = create_presentation(slides)
    
    # Sauvegarde de la présentation
    output_path = "presentation.pptx"
    prs.save(output_path)
    
    return f"Présentation générée avec succès ! Vous pouvez la télécharger ici : {os.path.abspath(output_path)}"

# Interface Gradio avec thème sombre personnalisé
css = """
.gradio-container {
    background-color: #1a1a1a !important;
    color: #ffffff !important;
}
.input-textbox, .output-textbox {
    background-color: #2d2d2d !important;
    color: #ffffff !important;
    border: 1px solid #404040 !important;
}
.label-text {
    color: #ffffff !important;
}
"""

# Interface Gradio avec une zone de texte plus grande et thème sombre
demo = gr.Interface(
    fn=generate_presentation,
    inputs=gr.Textbox(
        lines=10,
        label="Entrez votre texte",
        max_lines=50,
        placeholder="Décrivez le contenu que vous souhaitez pour votre présentation...",
    ),
    outputs=gr.Textbox(label="Statut"),
    title="Générateur de Présentations PowerPoint",
    description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement.",
    theme="darkhuggingface",  # Utilisation du thème sombre de HuggingFace
    css=css  # Application du CSS personnalisé
)

if __name__ == "__main__":
    demo.launch()