Edit model card

This is a monolingual Russian version! English is not yet supported

image/png

image/png

RU Version 🇷🇺

Model description

Данная модель предназначена для проведения ролевых игр по системе GURPS, а также для консультирования и ассистирования. Эта модель была обучена на аугментированном наборе данных по книге правил GURPS Basic Set. Главной её целью изначально было становление ассистентом-консультантом, а также помощником Гейм-мастера по ролевой системе GURPS, но её также можно использовать в качестве ГМа для проведения соло-партий в качестве игрока.

Recomendations

Очень рекомендую использовать данную модель с температурой 0.3-0.5 в режиме консультанта-ассистента по правилам GURPS. И температуру 0.7-1.2 если вы используете данную модель как Гейм-мастера, а сами выступаете в роли игрока. Если ваша цель - заставить данную модель вести партию, настоятельно рекомендую использовать подготовленную мной заранее карточку персонажа Гейм-мастера для SillyTavern (Это обеспечит максимальный экспериенс от партии): https://huggingface.co/AlexBefest/NightyGurps-14b-v1.1/blob/main/Game%20Master.png

Prompting

Данная модель использует формат ChatML! Не забудьте выставить его.

<|im_start|>system
{system_prompt}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant

Notes

Это тонкая настройка потрясающей модели Qwen 2.5 14b, которая по производительности обходит Gemma 2 27b. Я нашёл эту модель идеальной для дообучения на аугментированной книге правил Gurps Basic Set. Пожалуй, именно эту модель я буду использовать в качестве основы для дальнейших улучшений. Сейчас у меня в планах расширить датасет как минимум в три раза, а также провести дестиляцию существующего. Далее планируется выпустить NightyGurps-Nano (модель на основе qwen 2.5 3b) и NightyGurps-Large (на основе qwen 2.5 32b). На последнюю у меня особо большие планы и весьма высокие ожидания по производительности, учитывая невероятный уровень качества, который qwen смогли выжать всего из 32 миллиардов параметров.

Credits

Made by PegasusYaY(AlexBefest)

Downloads last month
4
GGUF
Model size
14.8B params
Architecture
qwen2

6-bit

8-bit

16-bit

Inference API
Unable to determine this model's library. Check the docs .

Model tree for AlexBefest/NightyGurps-14b-v1.1-GGUF

Base model

Qwen/Qwen2.5-14B
Quantized
(6)
this model

Collection including AlexBefest/NightyGurps-14b-v1.1-GGUF