File size: 6,380 Bytes
22b2e1b
 
 
f1a7442
22b2e1b
 
 
c3696a0
20fca4e
22b2e1b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
f1a7442
 
 
22b2e1b
fc404da
 
f1a7442
 
 
 
 
 
 
 
 
 
 
 
 
 
 
fc404da
f1a7442
 
0ff1405
 
 
c3696a0
0ff1405
c3696a0
f1a7442
22b2e1b
fe2644c
f1a7442
b7a52e3
 
 
22b2e1b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
f1a7442
 
 
 
22b2e1b
 
f1a7442
 
22b2e1b
f1a7442
22b2e1b
 
 
 
 
 
 
 
 
 
 
fe2644c
b8148cd
7c59d10
 
 
 
 
 
 
 
 
 
90e0fee
 
0842388
02c2fc9
90e0fee
7c59d10
 
 
 
 
 
 
 
 
 
 
 
f1a7442
 
 
90e0fee
 
22b2e1b
 
3834631
 
da4eb5b
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
import os
import gradio as gr
from huggingface_hub import hf_hub_download
from transformers import AutoModelForCausalLM, AutoTokenizer
from pptx import Presentation
from pptx.util import Inches, Pt
from pptx.enum.text import PP_ALIGN
from huggingface_hub import login
import torch

# Préprompt amélioré pour une meilleure structuration
PREPROMPT = """Vous êtes un assistant IA chargé de générer une présentation PowerPoint. Générez une présentation structurée en suivant ce format EXACT:

TITRE: [Titre principal de la présentation]
DIAPO 1:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
DIAPO 2:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
[Continuez avec ce format pour chaque diapositive]

Analysez le texte suivant et créez une présentation claire et professionnelle :"""




# Téléchargement du modèle
# /!\Taille Du Modèle GGUF Trop Gros Fonctionne Mal sur HFSpace Machine Free
#model_file = "mistralai_Mistral-Small-24B-Base-2501-Q8_0.gguf"
#model_file = "mistralai_Mistral-Small-24B-Base-2501-IQ3_XS.gguf"

#model_path = hf_hub_download(
#    repo_id="MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF",
#    filename=model_file,
#    repo_type="model"
#)

# Initialisation du modèle avec des paramètres de contexte plus grands
#text_to_presentation = Llama(
#    model_path=model_path,
#    verbose=True,
#    n_ctx=4096,  # Taille maximale du contexte (entrée + sortie)
#    n_batch=256  # Taille du batch pour le traitement
#)


# Téléchargement du modèle
# Authentification Necessaire 
#https://huggingface.co/docs/hub/spaces-overview#managing-secrets
#https://huggingface.co/docs/hub/security-tokens
#from huggingface_hub import login
token = os.getenv('Authentification_HF')
login(token)
model_id = "mistralai/Mistral-Nemo-Instruct-2407"

# Initialisation du modèle avec des paramètres de contexte plus grands
tokenizer = AutoTokenizer.from_pretrained(model_id)
#model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto", token=token)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto")


def parse_presentation_content(content):
    """Parse le contenu généré en sections pour les diapositives"""
    slides = []
    current_slide = None
    
    for line in content.split('\n'):
        line = line.strip()
        if line.startswith('TITRE:'):
            slides.append({'type': 'title', 'title': line[6:].strip()})
        elif line.startswith('DIAPO'):
            if current_slide:
                slides.append(current_slide)
            current_slide = {'type': 'content', 'title': '', 'points': []}
        elif line.startswith('Titre:') and current_slide:
            current_slide['title'] = line[6:].strip()
        elif line.startswith('- ') and current_slide:
            current_slide['points'].append(line[2:].strip())
    
    if current_slide:
        slides.append(current_slide)
    
    return slides

def create_presentation(slides):
    """Crée la présentation PowerPoint à partir des sections parsées"""
    prs = Presentation()
    
    # Première diapo (titre)
    title_slide = prs.slides.add_slide(prs.slide_layouts[0])
    title_slide.shapes.title.text = slides[0]['title']
    
    # Autres diapos
    for slide in slides[1:]:
        content_slide = prs.slides.add_slide(prs.slide_layouts[1])
        content_slide.shapes.title.text = slide['title']
        
        if slide['points']:
            body = content_slide.shapes.placeholders[1].text_frame
            body.clear()
            for point in slide['points']:
                p = body.add_paragraph()
                p.text = point
                p.level = 0
    
    return prs

def generate_presentation(text):
    # Ajout du préprompt au texte de l'utilisateur
    full_prompt = PREPROMPT + "\n\n" + text
    
    # Génération du contenu avec le modèle
    inputs = tokenizer.apply_chat_template(
        [{"role": "user", "content": full_prompt}],
        return_tensors="pt",
        return_dict=True
    )
    
    outputs = model.generate(**inputs, max_new_tokens=4096, temperature=0.3, stop=["<end>"])
    
    # Extraction du texte généré
    generated_content = tokenizer.decode(outputs[0], skip_special_tokens=True)
    
    # Parse le contenu et crée la présentation
    slides = parse_presentation_content(generated_content)
    prs = create_presentation(slides)
    
    # Sauvegarde de la présentation
    output_path = "presentation.pptx"
    prs.save(output_path)
    
    return f"Présentation générée avec succès ! Vous pouvez la télécharger ici : {os.path.abspath(output_path)}"

# Interface Gradio avec une zone de texte plus grande
demo = gr.Interface(
    fn=generate_presentation,
    inputs=gr.Textbox(
        lines=10,
        label="Entrez votre texte",
        max_lines=50  # Permet plus de lignes de texte
    ),
    outputs=gr.Textbox(label="Statut"),
    title="Générateur de Présentations PowerPoint",
    description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement."
)

# Interface Gradio avec thème Sombre "gstaff/xkcd" et boîte de logs
#with gr.Blocks(theme="gstaff/xkcd") as interface:
#with gr.Blocks() as interface:
    # Interface Gradio avec une zone de texte plus grande
#    demo = gr.Interface(
#        fn=generate_presentation,
#        inputs=gr.Textbox(
#            lines=10,
#            label="Entrez votre texte",
#            max_lines=50  # Permet plus de lignes de texte
#        ),
#        outputs=gr.Textbox(label="Statut"),
#        title="Générateur de Présentations PowerPoint",
#        description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement."
#    )
#    
    # Ajout de la boîte de logs
    #with gr.Row():
    #    gr.Console()

# Lance l'interface

if __name__ == "__main__":
    demo.launch(share=True)
#    demo.launch()
# Sans share=True : Erreur 500 ValueError: When localhost is not accessible, a shareable link must be created. Please set share=True or check your proxy settings to allow access to localhost.
# Avec share=True : Erreur 500 ValueError: share=True is not supported on HuggingFaceSpace
#Fonctionnait sans share=True jusque vers 16:00 - MAJ Auto Gradio de 5.05 > 5.15 - Laisser en l'etat 2025.02.09