qwen25-adv-lora
Este modelo es una versi贸n de Qwen2.5-Coder-7B-Instruct afinada utilizando la t茅cnica LoRA (Low-Rank Adaptation) para mejorar su rendimiento en tareas de generaci贸n de texto y robustez frente a ejemplos adversariales, como los de AdvBench. El modelo ha sido fusionado (merge_and_unload
) para facilitar su uso directo en inferencia.
Detalles t茅cnicos
- Modelo base:
Qwen2.5-Coder-7B-Instruct
- T茅cnica de ajuste:
LoRA
conunsloth
- Precision:
4-bit
(conbitsandbytes
) - Secuencia m谩xima: 4096 tokens
- Uso: generaci贸n de texto en espa帽ol e ingl茅s
C贸mo usar
from transformers import AutoTokenizer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("Alxis955/qwen25-adv-lora")
tokenizer = AutoTokenizer.from_pretrained("Alxis955/qwen25-adv-lora")
prompt = "驴Cu谩l es la capital de Francia?"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
- Downloads last month
- 17
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
馃檵
Ask for provider support