YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

๐Ÿค– Qwen3-0.6B Awesome Prompts - Fine-tuned

Este รฉ um modelo de linguagem baseado no Qwen/Qwen3-0.6B, treinado com tรฉcnicas de reinforcement learning usando GRPO (um tipo de treinamento baseado em recompensa) e com fine-tuning via LoRA. O objetivo foi ajustar o modelo para gerar respostas mais coerentes e contextualmente relevantes a partir de prompts inspirados no famoso repositรณrio "Awesome ChatGPT Prompts".

๐Ÿš€ O que tem de especial?

  • ๐Ÿ” Treinamento com GRPO (Group Relative Policy Optimization)
  • ๐Ÿ’ก Recompensa baseada em similaridade semรขntica
  • ๐Ÿง  Fine-tuning com LoRA (Low-Rank Adaptation)
  • ๐Ÿ—‚ Dataset utilizado: fka/awesome-chatgpt-prompts
  • ๐Ÿ“ˆ Integraรงรฃo com o Weights & Biases para monitoramento do treino

๐Ÿ›  Como usar

from transformers import pipeline

model = "Ambrosio1994/Qwen3-0.6B-awesome-prompts"
generator = pipeline("text-generation", model=model)

messages = [{"role": "user", "content": "Act as: an Ethereum developer"}]

response = generator(messages, max_new_tokens=512, do_sample=True, temperature=1.0, min_p=0.1)
print(response[0]["generated_text"][1]["content"])
Downloads last month
31
Safetensors
Model size
596M params
Tensor type
BF16
ยท
Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support