bertin-3heads-paes-large large-v6

Modelo BERT multihead en espa帽ol para clasificaci贸n de preguntas PAES con tres tareas simult谩neas.

Descripci贸n del Modelo

Este modelo est谩 basado en bertin-project/bertin-roberta-base-spanish y ha sido fine-tuneado para realizar tres tareas simult谩neas sobre preguntas del tipo PAES:

  1. Clasificaci贸n de Competencias (4 clases): Resolver, Modelar, Representar, Argumentar
  2. Clasificaci贸n de Temas (4 clases): N煤meros, 脕lgebra, Geometr铆a, Probabilidad y estad铆stica
  3. Predicci贸n de Pesos (regresi贸n): Peso de cada competencia en la pregunta

Resultados

M茅tricas en Test Set

  • Accuracy Competencias: 91.30%
  • Accuracy Temas: 87.35%
  • MAE Pesos: 0.1652
  • Coherencia comp-pesos: 95.26%

Dataset

  • Train: 756 preguntas
  • Validation: 253 preguntas
  • Test: 253 preguntas

Entrenamiento

  • 脡pocas: 8 (mejor: 5)
  • Batch size: 16
  • Learning rate: 2e-05
  • Max sequence length: 128
  • Warmup ratio: 0.1

Configuraci贸n de p茅rdidas

  • Peso Competencias: 0.5
  • Peso Temas: 0.3
  • Peso Regresi贸n: 0.2

Uso

Instalaci贸n R谩pida

# Clonar el repositorio del modelo
git clone https://huggingface.co/ronsuez/bertin-3heads-paes-large-large-v6
cd bertin-3heads-paes-large-large-v6

# Configurar autom谩ticamente
python setup_model.py

Instalaci贸n Manual

# Instalar dependencias
pip install -r requirements.txt

# Verificar instalaci贸n
python setup_model.py --skip-install

C贸digo de ejemplo

# Ejemplo b谩sico - ejecutar example_usage.py
python example_usage.py

# O usar directamente:
from transformers import AutoTokenizer
from model import BERTINMultiTaskPAES, ModelConfig
import torch

# Configuraci贸n
config = ModelConfig()

# Cargar modelo y tokenizer
tokenizer = AutoTokenizer.from_pretrained(".")
model = BERTINMultiTaskPAES.from_pretrained(".")
model.eval()

# Ejemplo de uso
text = "驴Cu谩l es la probabilidad de obtener exactamente 3 caras al lanzar una moneda 5 veces?"
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True, max_length=128)

with torch.no_grad():
    outputs = model(**inputs)
    
    # Obtener predicciones
    comp_pred = outputs['logits_competencias'].argmax(dim=1)
    tema_pred = outputs['logits_temas'].argmax(dim=1)
    pesos = outputs['pesos']
    
    print(f"Competencia: {config.competencias[comp_pred.item()]}")
    print(f"Tema: {config.temas[tema_pred.item()]}")
    print(f"Pesos: {pesos.squeeze().tolist()}")

Uso desde HuggingFace Hub

# Descargar y usar directamente desde HuggingFace
from huggingface_hub import hf_hub_download
import os

# Descargar archivos necesarios
files = ["model.py", "config.py", "setup_model.py", "requirements.txt"]
for file in files:
    hf_hub_download(repo_id="ronsuez/bertin-3heads-paes-large-large-v6", filename=file, local_dir="./bertin_model")

# Configurar
os.chdir("bertin_model")
os.system("python setup_model.py")

Archivos del Modelo

Archivos del Modelo Base

  • config.json: Configuraci贸n del modelo BERTIN base
  • pytorch_model.bin: Pesos del modelo BERTIN
  • model.safetensors: Pesos del modelo en formato SafeTensors
  • heads.pt: Pesos de las tres cabezas (competencias, temas, pesos)

Archivos de Tokenizaci贸n

  • tokenizer_config.json: Configuraci贸n del tokenizer
  • tokenizer.json: Tokenizer completo
  • vocab.json: Vocabulario
  • merges.txt: Reglas de merge para BPE
  • special_tokens_map.json: Mapeo de tokens especiales

Archivos de C贸digo

  • model.py: Clase BERTINMultiTaskPAES completa
  • config.py: Configuraciones del modelo
  • setup_model.py: Script de configuraci贸n autom谩tica
  • example_usage.py: Ejemplo de uso del modelo
  • requirements.txt: Dependencias necesarias

Archivos de Experimentaci贸n

  • experiment_results.json: Resultados del experimento
  • training_config.json: Configuraci贸n de entrenamiento
  • training_history.png: Gr谩fico de historial de entrenamiento
  • confusion_matrices.png: Matrices de confusi贸n

Limitaciones

  • El modelo fue entrenado espec铆ficamente para preguntas tipo PAES de matem谩ticas en espa帽ol
  • Mejor rendimiento en preguntas de longitud similar a las del dataset de entrenamiento
  • La coherencia entre competencia predicha y pesos puede variar

Informaci贸n Adicional

  • Versi贸n: large-v6
  • Fecha de entrenamiento: 20250716
  • Experimento: bertin-3heads-paes-large

Citaci贸n

Si usas este modelo en tu investigaci贸n, por favor cita:

@misc{bertin_3heads_paes_large_large-v6},
  author = {ronsuez},
  title = {bertin-3heads-paes-large large-v6: Modelo Multihead para Clasificaci贸n de Preguntas PAES},
  year = {2025},
  publisher = {HuggingFace Hub},
  url = {https://huggingface.co/ronsuez/bertin-3heads-paes-large-large-v6}
}

Agradecimientos

Este modelo est谩 basado en bertin-project/bertin-roberta-base-spanish.

Downloads last month
1
Safetensors
Model size
125M params
Tensor type
F32
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support

Model tree for ronsuez/bertin-3heads-paes-large-large-v6

Finetuned
(13)
this model

Evaluation results