from transformers import AutoTokenizer, AutoModelForSeq2SeqLM, pipeline import gradio as gr # Cargar el tokenizer y el modelo desde el repositorio del modelo preentrenado tokenizer = AutoTokenizer.from_pretrained("mrm8488/bert2bert_shared-spanish-finetuned-summarization") model = AutoModelForSeq2SeqLM.from_pretrained("mrm8488/bert2bert_shared-spanish-finetuned-summarization") # Crear el pipeline de resumen utilizando los objetos cargados resumidor = pipeline("summarization", model=model, tokenizer=tokenizer) def generar_resumen(texto): # Generar el resumen usando el pipeline resumen = resumidor(texto, max_length=130, min_length=30, do_sample=False) return resumen[0]["summary_text"] # Crear la interfaz de Gradio demo = gr.Interface( fn=generar_resumen, inputs=gr.Textbox(lines=10, placeholder="Pega aquí un texto largo en español..."), outputs="text", title="Generación de Resúmenes Automáticos", description="Introduce un texto largo en español y obtén un resumen generado automáticamente por un modelo preentrenado." ) # Lanzar la aplicación demo.launch()