File size: 6,380 Bytes
22b2e1b f1a7442 22b2e1b c3696a0 20fca4e 22b2e1b f1a7442 22b2e1b fc404da f1a7442 fc404da f1a7442 0ff1405 c3696a0 0ff1405 c3696a0 f1a7442 22b2e1b fe2644c f1a7442 b7a52e3 22b2e1b f1a7442 22b2e1b f1a7442 22b2e1b f1a7442 22b2e1b fe2644c b8148cd 7c59d10 90e0fee 0842388 02c2fc9 90e0fee 7c59d10 f1a7442 90e0fee 22b2e1b 3834631 da4eb5b |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 |
import os
import gradio as gr
from huggingface_hub import hf_hub_download
from transformers import AutoModelForCausalLM, AutoTokenizer
from pptx import Presentation
from pptx.util import Inches, Pt
from pptx.enum.text import PP_ALIGN
from huggingface_hub import login
import torch
# Préprompt amélioré pour une meilleure structuration
PREPROMPT = """Vous êtes un assistant IA chargé de générer une présentation PowerPoint. Générez une présentation structurée en suivant ce format EXACT:
TITRE: [Titre principal de la présentation]
DIAPO 1:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
DIAPO 2:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
[Continuez avec ce format pour chaque diapositive]
Analysez le texte suivant et créez une présentation claire et professionnelle :"""
# Téléchargement du modèle
# /!\Taille Du Modèle GGUF Trop Gros Fonctionne Mal sur HFSpace Machine Free
#model_file = "mistralai_Mistral-Small-24B-Base-2501-Q8_0.gguf"
#model_file = "mistralai_Mistral-Small-24B-Base-2501-IQ3_XS.gguf"
#model_path = hf_hub_download(
# repo_id="MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF",
# filename=model_file,
# repo_type="model"
#)
# Initialisation du modèle avec des paramètres de contexte plus grands
#text_to_presentation = Llama(
# model_path=model_path,
# verbose=True,
# n_ctx=4096, # Taille maximale du contexte (entrée + sortie)
# n_batch=256 # Taille du batch pour le traitement
#)
# Téléchargement du modèle
# Authentification Necessaire
#https://huggingface.co/docs/hub/spaces-overview#managing-secrets
#https://huggingface.co/docs/hub/security-tokens
#from huggingface_hub import login
token = os.getenv('Authentification_HF')
login(token)
model_id = "mistralai/Mistral-Nemo-Instruct-2407"
# Initialisation du modèle avec des paramètres de contexte plus grands
tokenizer = AutoTokenizer.from_pretrained(model_id)
#model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto", token=token)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto")
def parse_presentation_content(content):
"""Parse le contenu généré en sections pour les diapositives"""
slides = []
current_slide = None
for line in content.split('\n'):
line = line.strip()
if line.startswith('TITRE:'):
slides.append({'type': 'title', 'title': line[6:].strip()})
elif line.startswith('DIAPO'):
if current_slide:
slides.append(current_slide)
current_slide = {'type': 'content', 'title': '', 'points': []}
elif line.startswith('Titre:') and current_slide:
current_slide['title'] = line[6:].strip()
elif line.startswith('- ') and current_slide:
current_slide['points'].append(line[2:].strip())
if current_slide:
slides.append(current_slide)
return slides
def create_presentation(slides):
"""Crée la présentation PowerPoint à partir des sections parsées"""
prs = Presentation()
# Première diapo (titre)
title_slide = prs.slides.add_slide(prs.slide_layouts[0])
title_slide.shapes.title.text = slides[0]['title']
# Autres diapos
for slide in slides[1:]:
content_slide = prs.slides.add_slide(prs.slide_layouts[1])
content_slide.shapes.title.text = slide['title']
if slide['points']:
body = content_slide.shapes.placeholders[1].text_frame
body.clear()
for point in slide['points']:
p = body.add_paragraph()
p.text = point
p.level = 0
return prs
def generate_presentation(text):
# Ajout du préprompt au texte de l'utilisateur
full_prompt = PREPROMPT + "\n\n" + text
# Génération du contenu avec le modèle
inputs = tokenizer.apply_chat_template(
[{"role": "user", "content": full_prompt}],
return_tensors="pt",
return_dict=True
)
outputs = model.generate(**inputs, max_new_tokens=4096, temperature=0.3, stop=["<end>"])
# Extraction du texte généré
generated_content = tokenizer.decode(outputs[0], skip_special_tokens=True)
# Parse le contenu et crée la présentation
slides = parse_presentation_content(generated_content)
prs = create_presentation(slides)
# Sauvegarde de la présentation
output_path = "presentation.pptx"
prs.save(output_path)
return f"Présentation générée avec succès ! Vous pouvez la télécharger ici : {os.path.abspath(output_path)}"
# Interface Gradio avec une zone de texte plus grande
demo = gr.Interface(
fn=generate_presentation,
inputs=gr.Textbox(
lines=10,
label="Entrez votre texte",
max_lines=50 # Permet plus de lignes de texte
),
outputs=gr.Textbox(label="Statut"),
title="Générateur de Présentations PowerPoint",
description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement."
)
# Interface Gradio avec thème Sombre "gstaff/xkcd" et boîte de logs
#with gr.Blocks(theme="gstaff/xkcd") as interface:
#with gr.Blocks() as interface:
# Interface Gradio avec une zone de texte plus grande
# demo = gr.Interface(
# fn=generate_presentation,
# inputs=gr.Textbox(
# lines=10,
# label="Entrez votre texte",
# max_lines=50 # Permet plus de lignes de texte
# ),
# outputs=gr.Textbox(label="Statut"),
# title="Générateur de Présentations PowerPoint",
# description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement."
# )
#
# Ajout de la boîte de logs
#with gr.Row():
# gr.Console()
# Lance l'interface
if __name__ == "__main__":
demo.launch(share=True)
# demo.launch()
# Sans share=True : Erreur 500 ValueError: When localhost is not accessible, a shareable link must be created. Please set share=True or check your proxy settings to allow access to localhost.
# Avec share=True : Erreur 500 ValueError: share=True is not supported on HuggingFaceSpace
#Fonctionnait sans share=True jusque vers 16:00 - MAJ Auto Gradio de 5.05 > 5.15 - Laisser en l'etat 2025.02.09 |