Spaces:
Runtime error
Runtime error
import pandas as pd | |
import gradio as gr | |
from transformers import GPT2Tokenizer, GPT2LMHeadModel | |
# Carregando o modelo e o tokenizador do GPT-2 | |
tokenizer = GPT2Tokenizer.from_pretrained('gpt2') | |
model = GPT2LMHeadModel.from_pretrained('gpt2') | |
# Dados iniciais | |
data = { | |
'Nome': ['Alice', 'Bob', 'Charlie'], | |
'Idade': [25, 30, 35], | |
'Cidade': ['Nova York', 'Los Angeles', 'Chicago'], | |
'Feedback': [None, None, None] | |
} | |
df = pd.DataFrame(data) | |
# Função para responder perguntas com GPT-2 | |
def answer_question_with_gpt(question): | |
if tokenizer.pad_token is None: | |
tokenizer.pad_token = tokenizer.eos_token | |
prompt = f"Considerando os dados: {df.to_string(index=False)}. Pergunta: {question} Resposta:" | |
inputs = tokenizer(prompt, return_tensors='pt', padding='max_length', truncation=True, max_length=512) | |
attention_mask = inputs['attention_mask'] | |
input_ids = inputs['input_ids'] | |
generated_ids = model.generate( | |
input_ids, | |
attention_mask=attention_mask, | |
max_length=len(input_ids[0]) + 100, # Aumentar o limite de geração | |
temperature=0.5, # Ajustar a criatividade | |
top_p=0.9, # Usar nucleus sampling | |
no_repeat_ngram_size=2 # Evitar repetições desnecessárias | |
) | |
generated_text = tokenizer.decode(generated_ids[0], skip_special_tokens=True) | |
# Processando para extrair apenas a resposta após "Resposta:" | |
response_part = generated_text.split("Resposta:")[1] if "Resposta:" in generated_text else "Resposta não encontrada." | |
# Limpeza adicional para remover qualquer texto indesejado após a resposta | |
final_response = response_part.split(".")[0] + "." # Isso assume que a resposta termina na primeira sentença. | |
return final_response | |
# Função para adicionar feedback | |
def add_feedback(nome, feedback): | |
global df | |
if nome in df['Nome'].values: | |
df.loc[df['Nome'] == nome, 'Feedback'] = feedback | |
return "Feedback adicionado com sucesso." | |
else: | |
return "Nome não encontrado no DataFrame." | |
with gr.Blocks() as demo: | |
gr.Markdown("# Sistema de Consulta e Feedback de Dados") | |
with gr.Row(): | |
with gr.Column(): | |
question_input = gr.Textbox(label="Faça uma Pergunta") | |
answer_output = gr.Textbox(label="Resposta", interactive=False) | |
ask_button = gr.Button("Perguntar") | |
with gr.Column(): | |
name_input = gr.Textbox(label="Nome para Feedback") | |
feedback_input = gr.Textbox(label="Feedback") | |
feedback_result = gr.Textbox(label="Resultado do Feedback", interactive=False) | |
submit_button = gr.Button("Enviar Feedback") | |
ask_button.click(fn=answer_question_with_gpt, inputs=question_input, outputs=answer_output) | |
submit_button.click(fn=add_feedback, inputs=[name_input, feedback_input], outputs=feedback_result) | |
demo.launch() |