import os
import gradio as gr
from huggingface_hub import hf_hub_download
from transformers import AutoModelForCausalLM, AutoTokenizer
from pptx import Presentation
from pptx.util import Inches, Pt
from pptx.enum.text import PP_ALIGN
from huggingface_hub import login
import torch

# Préprompt amélioré pour une meilleure structuration
PREPROMPT = """Vous êtes un assistant IA chargé de générer une présentation PowerPoint. Générez une présentation structurée en suivant ce format EXACT:

TITRE: [Titre principal de la présentation]
DIAPO 1:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
DIAPO 2:
Titre: [Titre de la diapo]
Points:
- Point 1
- Point 2
- Point 3
[Continuez avec ce format pour chaque diapositive]

Analysez le texte suivant et créez une présentation claire et professionnelle :"""




# Téléchargement du modèle
# /!\Taille Du Modèle GGUF Trop Gros Fonctionne Mal sur HFSpace Machine Free
#model_file = "mistralai_Mistral-Small-24B-Base-2501-Q8_0.gguf"
#model_file = "mistralai_Mistral-Small-24B-Base-2501-IQ3_XS.gguf"

#model_path = hf_hub_download(
#    repo_id="MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF",
#    filename=model_file,
#    repo_type="model"
#)

# Initialisation du modèle avec des paramètres de contexte plus grands
#text_to_presentation = Llama(
#    model_path=model_path,
#    verbose=True,
#    n_ctx=4096,  # Taille maximale du contexte (entrée + sortie)
#    n_batch=256  # Taille du batch pour le traitement
#)


# Téléchargement du modèle
# Authentification Necessaire 
#https://huggingface.co/docs/hub/spaces-overview#managing-secrets
#https://huggingface.co/docs/hub/security-tokens
#from huggingface_hub import login
token = os.getenv('Authentification_HF')
login(token)
model_id = "mistralai/Mistral-Nemo-Instruct-2407"

# Initialisation du modèle avec des paramètres de contexte plus grands
tokenizer = AutoTokenizer.from_pretrained(model_id)
#model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto", token=token)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto")


def parse_presentation_content(content):
    """Parse le contenu généré en sections pour les diapositives"""
    slides = []
    current_slide = None
    
    for line in content.split('\n'):
        line = line.strip()
        if line.startswith('TITRE:'):
            slides.append({'type': 'title', 'title': line[6:].strip()})
        elif line.startswith('DIAPO'):
            if current_slide:
                slides.append(current_slide)
            current_slide = {'type': 'content', 'title': '', 'points': []}
        elif line.startswith('Titre:') and current_slide:
            current_slide['title'] = line[6:].strip()
        elif line.startswith('- ') and current_slide:
            current_slide['points'].append(line[2:].strip())
    
    if current_slide:
        slides.append(current_slide)
    
    return slides

def create_presentation(slides):
    """Crée la présentation PowerPoint à partir des sections parsées"""
    prs = Presentation()
    
    # Première diapo (titre)
    title_slide = prs.slides.add_slide(prs.slide_layouts[0])
    title_slide.shapes.title.text = slides[0]['title']
    
    # Autres diapos
    for slide in slides[1:]:
        content_slide = prs.slides.add_slide(prs.slide_layouts[1])
        content_slide.shapes.title.text = slide['title']
        
        if slide['points']:
            body = content_slide.shapes.placeholders[1].text_frame
            body.clear()
            for point in slide['points']:
                p = body.add_paragraph()
                p.text = point
                p.level = 0
    
    return prs

def generate_presentation(text):
    # Ajout du préprompt au texte de l'utilisateur
    full_prompt = PREPROMPT + "\n\n" + text
    
    # Génération du contenu avec le modèle
    inputs = tokenizer.apply_chat_template(
        [{"role": "user", "content": full_prompt}],
        return_tensors="pt",
        return_dict=True
    )
    
    outputs = model.generate(**inputs, max_new_tokens=4096, temperature=0.3, stop=["<end>"])
    
    # Extraction du texte généré
    generated_content = tokenizer.decode(outputs[0], skip_special_tokens=True)
    
    # Parse le contenu et crée la présentation
    slides = parse_presentation_content(generated_content)
    prs = create_presentation(slides)
    
    # Sauvegarde de la présentation
    output_path = "presentation.pptx"
    prs.save(output_path)
    
    return f"Présentation générée avec succès ! Vous pouvez la télécharger ici : {os.path.abspath(output_path)}"

# Interface Gradio avec une zone de texte plus grande
demo = gr.Interface(
    fn=generate_presentation,
    inputs=gr.Textbox(
        lines=10,
        label="Entrez votre texte",
        max_lines=50  # Permet plus de lignes de texte
    ),
    outputs=gr.Textbox(label="Statut"),
    title="Générateur de Présentations PowerPoint",
    description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement."
)

# Interface Gradio avec thème Sombre "gstaff/xkcd" et boîte de logs
#with gr.Blocks(theme="gstaff/xkcd") as interface:
#with gr.Blocks() as interface:
    # Interface Gradio avec une zone de texte plus grande
#    demo = gr.Interface(
#        fn=generate_presentation,
#        inputs=gr.Textbox(
#            lines=10,
#            label="Entrez votre texte",
#            max_lines=50  # Permet plus de lignes de texte
#        ),
#        outputs=gr.Textbox(label="Statut"),
#        title="Générateur de Présentations PowerPoint",
#        description="Entrez votre texte et obtenez une présentation PowerPoint générée automatiquement."
#    )
#    
    # Ajout de la boîte de logs
    #with gr.Row():
    #    gr.Console()

# Lance l'interface

if __name__ == "__main__":
    demo.launch(share=True)
#    demo.launch()
# Sans share=True : Erreur 500 ValueError: When localhost is not accessible, a shareable link must be created. Please set share=True or check your proxy settings to allow access to localhost.
# Avec share=True : Erreur 500 ValueError: share=True is not supported on HuggingFaceSpace
#Fonctionnait sans share=True jusque vers 16:00 - MAJ Auto Gradio de 5.05 > 5.15 - Laisser en l'etat 2025.02.09