qwen25-adv-lora

Este modelo es una versi贸n de Qwen2.5-Coder-7B-Instruct afinada utilizando la t茅cnica LoRA (Low-Rank Adaptation) para mejorar su rendimiento en tareas de generaci贸n de texto y robustez frente a ejemplos adversariales, como los de AdvBench. El modelo ha sido fusionado (merge_and_unload) para facilitar su uso directo en inferencia.

Detalles t茅cnicos

  • Modelo base: Qwen2.5-Coder-7B-Instruct
  • T茅cnica de ajuste: LoRA con unsloth
  • Precision: 4-bit (con bitsandbytes)
  • Secuencia m谩xima: 4096 tokens
  • Uso: generaci贸n de texto en espa帽ol e ingl茅s

C贸mo usar

from transformers import AutoTokenizer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("Alxis955/qwen25-adv-lora")
tokenizer = AutoTokenizer.from_pretrained("Alxis955/qwen25-adv-lora")

prompt = "驴Cu谩l es la capital de Francia?"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Downloads last month
17
Safetensors
Model size
4.46B params
Tensor type
BF16
F32
U8
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support

Model tree for Alxis955/qwen25-adv-lora

Base model

Qwen/Qwen2.5-7B
Quantized
(133)
this model