MisterAI commited on
Commit
ca3ed85
·
verified ·
1 Parent(s): 92ff8a3

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +21 -1
app.py CHANGED
@@ -4,6 +4,8 @@ from transformers import pipeline
4
  from pptx import Presentation
5
  from pptx.util import Inches
6
  from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, TextIteratorStreamer
 
 
7
 
8
  # Préprompt pour donner des instructions au modèle
9
  PREPROMPT = """Vous êtes un assistant IA chargé de générer une présentation PowerPoint à partir d'un texte fourni par un utilisateur. Voici les instructions à suivre :
@@ -15,9 +17,27 @@ PREPROMPT = """Vous êtes un assistant IA chargé de générer une présentation
15
  Voici le texte à transformer en présentation :"""
16
 
17
  # Chargement du modèle IA depuis Hugging Face
18
- text_to_presentation = pipeline("text-generation", model="MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF")
 
 
 
 
 
 
 
 
 
 
19
  tokenizer = AutoTokenizer.from_pretrained("MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF")
20
 
 
 
 
 
 
 
 
 
21
  def generate_presentation(text):
22
  # Ajout du préprompt au texte de l'utilisateur
23
  full_prompt = PREPROMPT + "\n\n" + text
 
4
  from pptx import Presentation
5
  from pptx.util import Inches
6
  from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, TextIteratorStreamer
7
+ from llama_cpp import LLMCppModel
8
+
9
 
10
  # Préprompt pour donner des instructions au modèle
11
  PREPROMPT = """Vous êtes un assistant IA chargé de générer une présentation PowerPoint à partir d'un texte fourni par un utilisateur. Voici les instructions à suivre :
 
17
  Voici le texte à transformer en présentation :"""
18
 
19
  # Chargement du modèle IA depuis Hugging Face
20
+ #text_to_presentation = pipeline("text-generation", model="MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF")
21
+ #tokenizer = AutoTokenizer.from_pretrained("MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF")
22
+
23
+
24
+ # Chargement du modèle IA depuis Hugging Face
25
+ #from llama_cpp import LLMCppModel
26
+ model_path = "MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF"
27
+ text_to_presentation = LLMCppModel(model_path)
28
+
29
+ # Chargement du tokenizer depuis Hugging Face
30
+ #from transformers import AutoTokenizer
31
  tokenizer = AutoTokenizer.from_pretrained("MisterAI/Bartowski_MistralAI_Mistral-Small-24B-Base-2501-GGUF")
32
 
33
+
34
+
35
+
36
+
37
+
38
+
39
+
40
+
41
  def generate_presentation(text):
42
  # Ajout du préprompt au texte de l'utilisateur
43
  full_prompt = PREPROMPT + "\n\n" + text