YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/model-cards#model-card-metadata)
๐ค Qwen3-0.6B Awesome Prompts - Fine-tuned
Este รฉ um modelo de linguagem baseado no Qwen/Qwen3-0.6B
, treinado com tรฉcnicas de reinforcement learning usando GRPO (um tipo de treinamento baseado em recompensa) e com fine-tuning via LoRA. O objetivo foi ajustar o modelo para gerar respostas mais coerentes e contextualmente relevantes a partir de prompts inspirados no famoso repositรณrio "Awesome ChatGPT Prompts".
๐ O que tem de especial?
- ๐ Treinamento com GRPO (Group Relative Policy Optimization)
- ๐ก Recompensa baseada em similaridade semรขntica
- ๐ง Fine-tuning com LoRA (Low-Rank Adaptation)
- ๐ Dataset utilizado:
fka/awesome-chatgpt-prompts
- ๐ Integraรงรฃo com o Weights & Biases para monitoramento do treino
๐ Como usar
from transformers import pipeline
model = "Ambrosio1994/Qwen3-0.6B-awesome-prompts"
generator = pipeline("text-generation", model=model)
messages = [{"role": "user", "content": "Act as: an Ethereum developer"}]
response = generator(messages, max_new_tokens=512, do_sample=True, temperature=1.0, min_p=0.1)
print(response[0]["generated_text"][1]["content"])
- Downloads last month
- 31
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
๐
Ask for provider support