GenDoc_05 / app.py.OLD02
MisterAI's picture
Rename app.py to app.py.OLD02
29dd378 verified
import os
import gradio as gr
from huggingface_hub import hf_hub_download
from transformers import AutoModelForCausalLM, AutoTokenizer
from pptx import Presentation
from pptx.util import Inches, Pt
from pptx.enum.text import PP_ALIGN
from huggingface_hub import login
import torch
# Préprompt amélioré pour une meilleure structuration
PREPROMPT = """Vous êtes un assistant IA chargé de générer une présentation PowerPoint. Générez une présentation structurée en suivant ce format EXACT:
TITRE: [Titre principal de la présentation]
DIAPO 1:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
DIAPO 2:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
[Continuez avec ce format pour chaque diapositive]
Analysez le texte suivant et créez une présentation claire et professionnelle :"""
# Téléchargement du modèle
# /!\Taille Du Modèle GGUF Trop Gros Fonctionne Mal sur HFSpace Machine Free
#model_file = "mistralai_Mistral-Small-24B-Base-2501-Q8_0.gguf"
#model_file = "mistralai_Mistral-Small-24B-Base-2501-IQ3_XS.gguf"
#model_path = hf_hub_download(
# repo_id="MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF",
# filename=model_file,
# repo_type="model"
#)
# Initialisation du modèle avec des paramètres de contexte plus grands
#text_to_presentation = Llama(
# model_path=model_path,
# verbose=True,
# n_ctx=4096, # Taille maximale du contexte (entrée + sortie)
# n_batch=256 # Taille du batch pour le traitement
#)
# Téléchargement du modèle
# Authentification Necessaire
#https://huggingface.co/docs/hub/spaces-overview#managing-secrets
#https://huggingface.co/docs/hub/security-tokens
#from huggingface_hub import login
token = os.getenv('Authentification_HF')
login(token)
model_id = "mistralai/Mistral-Nemo-Instruct-2407"
# Initialisation du modèle avec des paramètres de contexte plus grands
tokenizer = AutoTokenizer.from_pretrained(model_id)
#model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto", token=token)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto")
def parse_presentation_content(content):
"""Parse le contenu généré en sections pour les diapositives"""
slides = []
current_slide = None
for line in content.split('\n'):
line = line.strip()
if line.startswith('TITRE:'):
slides.append({'type': 'title', 'title': line[6:].strip()})
elif line.startswith('DIAPO'):
if current_slide:
slides.append(current_slide)
current_slide = {'type': 'content', 'title': '', 'points': []}
elif line.startswith('Titre:') and current_slide:
current_slide['title'] = line[6:].strip()
elif line.startswith('- ') and current_slide:
current_slide['points'].append(line[2:].strip())
if current_slide:
slides.append(current_slide)
return slides
def create_presentation(slides):
"""Crée la présentation PowerPoint à partir des sections parsées"""
prs = Presentation()
# Première diapo (titre)
title_slide = prs.slides.add_slide(prs.slide_layouts[0])
title_slide.shapes.title.text = slides[0]['title']
# Autres diapos
for slide in slides[1:]:
content_slide = prs.slides.add_slide(prs.slide_layouts[1])
content_slide.shapes.title.text = slide['title']
if slide['points']:
body = content_slide.shapes.placeholders[1].text_frame
body.clear()
for point in slide['points']:
p = body.add_paragraph()
p.text = point
p.level = 0
return prs
def generate_presentation(text):
# Ajout du préprompt au texte de l'utilisateur
full_prompt = PREPROMPT + "\n\n" + text
# Génération du contenu avec le modèle
inputs = tokenizer.apply_chat_template(
[{"role": "user", "content": full_prompt}],
return_tensors="pt",
return_dict=True
)
outputs = model.generate(**inputs, max_new_tokens=4096, temperature=0.3, stop=["<end>"])
# Extraction du texte généré
generated_content = tokenizer.decode(outputs[0], skip_special_tokens=True)
# Parse le contenu et crée la présentation
slides = parse_presentation_content(generated_content)
prs = create_presentation(slides)
# Sauvegarde de la présentation
output_path = "presentation.pptx"
prs.save(output_path)
return f"Présentation générée avec succès ! Vous pouvez la télécharger ici : {os.path.abspath(output_path)}"
# Interface Gradio avec une zone de texte plus grande
demo = gr.Interface(
fn=generate_presentation,
inputs=gr.Textbox(
lines=10,
label="Entrez votre texte",
max_lines=50 # Permet plus de lignes de texte
),
outputs=gr.Textbox(label="Statut"),
title="Générateur de Présentations PowerPoint",
description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement."
)
# Interface Gradio avec thème Sombre "gstaff/xkcd" et boîte de logs
#with gr.Blocks(theme="gstaff/xkcd") as interface:
#with gr.Blocks() as interface:
# Interface Gradio avec une zone de texte plus grande
# demo = gr.Interface(
# fn=generate_presentation,
# inputs=gr.Textbox(
# lines=10,
# label="Entrez votre texte",
# max_lines=50 # Permet plus de lignes de texte
# ),
# outputs=gr.Textbox(label="Statut"),
# title="Générateur de Présentations PowerPoint",
# description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement."
# )
#
# Ajout de la boîte de logs
#with gr.Row():
# gr.Console()
# Lance l'interface
if __name__ == "__main__":
demo.launch(share=True)
# demo.launch()
# Sans share=True : Erreur 500 ValueError: When localhost is not accessible, a shareable link must be created. Please set share=True or check your proxy settings to allow access to localhost.
# Avec share=True : Erreur 500 ValueError: share=True is not supported on HuggingFaceSpace
#Fonctionnait sans share=True jusque vers 16:00 - MAJ Auto Gradio de 5.05 > 5.15 - Laisser en l'etat 2025.02.09