# Importar as bibliotecas Gradio e Transformers import gradio as gr from transformers import AutoTokenizer, AutoModelForCausalLM # Carregar o tokenizador e o modelo do GPT-J tokenizer = AutoTokenizer.from_pretrained("EleutherAI/gpt-j-6B") model = AutoModelForCausalLM.from_pretrained("EleutherAI/gpt-j-6B") # Definir uma função que recebe um prompt e gera um texto usando o modelo def generate_text(prompt): # Codificar o prompt input_ids = tokenizer.encode(prompt, return_tensors="pt") # Gerar uma saída output_ids = model.generate(input_ids) # Decodificar a saída output_text = tokenizer.decode(output_ids[0]) # Retornar a saída return output_text # Criar uma interface do Gradio com um componente de entrada do tipo Textbox e um componente de saída do tipo Textbox iface = gr.Interface( fn=generate_text, inputs=gr.inputs.Textbox(lines=5, label="Input Text", initial_value="What is the meaning of life?"), outputs=gr.outputs.Textbox(label="Output Text") ) # Lançar a interface do Gradio iface.launch()