AndreaAlessandrelli4 commited on
Commit
cd86962
·
verified ·
1 Parent(s): 4473b6c

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +20 -20
app.py CHANGED
@@ -86,26 +86,26 @@ def generate(
86
  Firmati alla fine di ogni risposta '-AvvoChat'.'''})
87
  for user, assistant in chat_history:
88
  conversation.extend([{"role": "user", "content": user}, {"role": "assistant", "content": assistant}])
89
- query_pipeline1 = Pipeline()
90
- query_pipeline1.add_component(
91
- "text_embedder",
92
- SentenceTransformersTextEmbedder(
93
- model="intfloat/multilingual-e5-large",
94
- prefix="query:",
95
- ))
96
- materiali = richiamo_materiali(message, alpha=1.0, n_items=5)
97
- documenti = ''
98
- for idx, d in enumerate(materiali):
99
- if idx<len(materiali)-1:
100
- documenti += f"{d['content']}; "
101
- else:
102
- documenti += f"{d['content']}. "
103
- text = f'''Basandoti sulle tue conoscenze e usando le informazioni contenute che ti fornisco di seguito.
104
- CONTESTO:
105
- {documenti}
106
- Rispondi in modo esaustivo, evitando inutili giri di parole o ripetizioni, alla seguente domanda.
107
- {message}'''
108
- conversation.append({"role": "user", "content": text})
109
 
110
  input_ids = tokenizer.apply_chat_template(conversation, return_tensors="pt")
111
  if input_ids.shape[1] > MAX_INPUT_TOKEN_LENGTH:
 
86
  Firmati alla fine di ogni risposta '-AvvoChat'.'''})
87
  for user, assistant in chat_history:
88
  conversation.extend([{"role": "user", "content": user}, {"role": "assistant", "content": assistant}])
89
+ #query_pipeline1 = Pipeline()
90
+ #query_pipeline1.add_component(
91
+ # "text_embedder",
92
+ # SentenceTransformersTextEmbedder(
93
+ # model="intfloat/multilingual-e5-large",
94
+ # prefix="query:",
95
+ # ))
96
+ #materiali = richiamo_materiali(message, alpha=1.0, n_items=5)
97
+ #documenti = ''
98
+ #for idx, d in enumerate(materiali):
99
+ # if idx<len(materiali)-1:
100
+ # documenti += f"{d['content']}; "
101
+ # else:
102
+ # documenti += f"{d['content']}. "
103
+ #text = f'''Basandoti sulle tue conoscenze e usando le informazioni contenute che ti fornisco di seguito.
104
+ #CONTESTO:
105
+ #{documenti}
106
+ #Rispondi in modo esaustivo, evitando inutili giri di parole o ripetizioni, alla seguente domanda.
107
+ #{message}'''
108
+ conversation.append({"role": "user", "content": message})
109
 
110
  input_ids = tokenizer.apply_chat_template(conversation, return_tensors="pt")
111
  if input_ids.shape[1] > MAX_INPUT_TOKEN_LENGTH: