Update app.py
Browse files
app.py
CHANGED
@@ -2,7 +2,16 @@ import gradio as gr
|
|
2 |
from huggingface_hub import InferenceClient
|
3 |
|
4 |
# Cliente de inferência com modelo de IA pública
|
5 |
-
client = InferenceClient(model="meta-llama/Meta-Llama-3-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
6 |
|
7 |
# Função para processar a conversa
|
8 |
def responder(mensagem, historico):
|
@@ -55,6 +64,8 @@ demo = gr.ChatInterface(
|
|
55 |
submit_btn="Enviar",
|
56 |
stop_btn="Parar",
|
57 |
textbox=gr.Textbox(placeholder="Digite uma mensagem e depois tecle Enter"),
|
|
|
|
|
58 |
type="messages"
|
59 |
)
|
60 |
|
|
|
2 |
from huggingface_hub import InferenceClient
|
3 |
|
4 |
# Cliente de inferência com modelo de IA pública
|
5 |
+
client = InferenceClient(model="meta-llama/Meta-Llama-3.1-70B-Instruct") # Modelo gratuito e avançado
|
6 |
+
|
7 |
+
mensagens = [
|
8 |
+
{"role": "system", "content": "Seu nome é Benjamin e você é um assistente útil especializado em acessibilidade digital e nos cursos a distância da Coordenação de Educação a Distância do Instituto Benjamin Constant, Centro de Referência na Área da Deficiência Visual."},
|
9 |
+
{"role": "user", "content": "Quais são as diretrizes do WCAG?"}
|
10 |
+
]
|
11 |
+
|
12 |
+
resposta = client.chat_completion(mensagens, max_tokens=5000)
|
13 |
+
|
14 |
+
print(resposta)
|
15 |
|
16 |
# Função para processar a conversa
|
17 |
def responder(mensagem, historico):
|
|
|
64 |
submit_btn="Enviar",
|
65 |
stop_btn="Parar",
|
66 |
textbox=gr.Textbox(placeholder="Digite uma mensagem e depois tecle Enter"),
|
67 |
+
label="Caixa de entrada",
|
68 |
+
interactive=True),
|
69 |
type="messages"
|
70 |
)
|
71 |
|