XA-vito commited on
Commit
2dcb03b
·
verified ·
1 Parent(s): caa40b5

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -19
app.py CHANGED
@@ -1,7 +1,3 @@
1
-
2
-
3
-
4
-
5
  import accelerate
6
  import gradio as gr
7
  import joblib
@@ -33,10 +29,6 @@ model = AutoModelForCausalLM.from_pretrained(
33
  token=HF_TOKEN
34
  )
35
 
36
-
37
-
38
-
39
-
40
  # Memoria conversacional
41
  memory = ConversationBufferMemory()
42
 
@@ -100,27 +92,26 @@ def conversar_con_colmena(mensaje):
100
  print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
101
 
102
  with torch.no_grad():
103
- output = model.generate( # ✅ Correctamente indentado
104
  **inputs,
105
  max_length=150, # Reduce el tamaño máximo para evitar que se quede colgado
106
  do_sample=True, # Sampling activado para más variabilidad
107
  top_k=50, # Controla la aleatoriedad para evitar salidas vacías
108
  temperature=0.7, # Ajusta la creatividad de la respuesta
109
  pad_token_id=tokenizer.eos_token_id # Evita errores de padding
110
- ) # ✅ Paréntesis correctamente cerrado
111
 
 
 
112
 
113
- # Decodificar la salida del modelo
114
- respuesta = tokenizer.decode(output[0], skip_special_tokens=True).strip()
115
-
116
- # Imprimir la respuesta generada para depuración
117
- print(f"✅ Respuesta generada por la IA: '{respuesta}'") # 👈 Para ver si está vacío
118
-
119
- # Manejo de respuestas vacías
120
- if not respuesta:
121
- return "🤖 No pude generar una respuesta. Inténtalo de nuevo con otra pregunta."
122
 
 
 
 
123
 
 
124
 
125
  iface = gr.Interface(
126
  fn=conversar_con_colmena,
@@ -133,3 +124,8 @@ iface = gr.Interface(
133
  iface.launch()
134
 
135
 
 
 
 
 
 
 
 
 
 
 
1
  import accelerate
2
  import gradio as gr
3
  import joblib
 
29
  token=HF_TOKEN
30
  )
31
 
 
 
 
 
32
  # Memoria conversacional
33
  memory = ConversationBufferMemory()
34
 
 
92
  print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
93
 
94
  with torch.no_grad():
95
+ output = model.generate(
96
  **inputs,
97
  max_length=150, # Reduce el tamaño máximo para evitar que se quede colgado
98
  do_sample=True, # Sampling activado para más variabilidad
99
  top_k=50, # Controla la aleatoriedad para evitar salidas vacías
100
  temperature=0.7, # Ajusta la creatividad de la respuesta
101
  pad_token_id=tokenizer.eos_token_id # Evita errores de padding
102
+ )
103
 
104
+ # Decodificar la salida del modelo
105
+ respuesta = tokenizer.decode(output[0], skip_special_tokens=True).strip()
106
 
107
+ # Imprimir la respuesta generada para depuración
108
+ print(f"✅ Respuesta generada por la IA: '{respuesta}'") # 👈 Para ver si está vacío
 
 
 
 
 
 
 
109
 
110
+ # Manejo de respuestas vacías
111
+ if not respuesta:
112
+ return "🤖 No pude generar una respuesta. Inténtalo de nuevo con otra pregunta."
113
 
114
+ return respuesta # ✅ SOLUCIÓN 1 IMPLEMENTADA (Se retorna la respuesta)
115
 
116
  iface = gr.Interface(
117
  fn=conversar_con_colmena,
 
124
  iface.launch()
125
 
126
 
127
+
128
+
129
+
130
+
131
+