File size: 8,641 Bytes
ba5c319 ff7a23e ba5c319 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 |
---
library_name: transformers
model_name: QVikhr-3-1.7B-Instruction-noreasoning
base_model:
- Qwen/Qwen3-1.7B
language:
- ru
- en
license: apache-2.0
datasets:
- Vikhrmodels/GrandMaster2
---
# QVikhr-3-1.7B-Instruction-noreasoning
#### RU
Инструктивная модель на основе **Qwen/Qwen3-1.7B**, обученная на русскоязычном датасете **GrandMaster2**. Создана для высокоэффективной обработки текстов на русском и английском языках, обеспечивая точные ответы и быстрое выполнение задач.
#### EN
Instructive model based on **Qwen/Qwen3-1.7B**, trained on the Russian-language dataset **GrandMaster2**. Designed for high-efficiency text processing in Russian and English, delivering precise responses and fast task execution.
## Quantized variants:
- GGUF [Vikhrmodels/QVikhr-3-1.7B-Instruction-noreasoning-GGUF](https://huggingface.co/Vikhrmodels/QVikhr-3-1.7B-Instruction-noreasoning-GGUF)
- MLX
- 4 bit [Vikhrmodels/QVikhr-3-1.7B-Instruction-noreasoning-MLX_4bit](https://huggingface.co/Vikhrmodels/QVikhr-3-1.7B-Instruction-noreasoning-MLX_4bit)
- 8 bit [Vikhrmodels/QVikhr-3-1.7B-Instruction-noreasoning-MLX_8bit](https://huggingface.co/Vikhrmodels/QVikhr-3-1.7B-Instruction-noreasoning-MLX_8bit)
## Особенности / Features:
- 📚 Основа / Base: [Qwen/Qwen3-1.7B](https://huggingface.co/Qwen/Qwen3-1.7B)
- 🇷🇺 Специализация / Specialization: **RU**
- 💾 Датасет / Dataset: [GrandMaster2](https://huggingface.co/datasets/Vikhrmodels/GrandMaster2)
- 🌍 Поддержка / Support: **Bilingual RU/EN**
## Попробовать / Try now:
[](https://colab.research.google.com/drive/1EjliojdR7A9EQmsV8aLE7Rq_Lr_594gy?usp=sharing)
## Ru Arena General
| Model | Score | 95% CI | Avg. #Tokens |
|------------------------------------------|-------|-----------|--------------|
| Vikhrmodels-QVikhr-3-1.7B-Instruction-noreasoning |59.2 |(-2.1, 1.8) |1053 |
| noresoning-Qwen3-1.7B |51.9 |(-1.9, 1.5) |999 |
| Qwen3-1.7B |49.7 |(-1.8, 1.9) |1918 |
## Описание / Description:
#### RU
**QVikhr-3-1.7B-Instruction-noreasoning** — мощная языковая модель, обученная на датасете **GrandMaster-2**, поддерживает генерацию инструкций, контекстные ответы и анализ текста на русском языке. Эта модель оптимизирована для задач инструктивного обучения и обработки текстов. Она подходит для использования в профессиональной среде, а также для интеграции в пользовательские приложения и сервисы.
#### EN
**QVikhr-3-1.7B-Instruction-noreasoning** is a robust language model trained on the **GrandMaster-2** dataset. It excels in instruction generation, contextual responses, and text analysis in Russian. The model is optimized for instructional tasks and textual data processing, suitable for professional use as well as integration into user-facing applications and services.
## Обучение / Training:
#### RU
**QVikhr-3-1.7B-Instruction-noreasoning** была создана с использованием метода SFT (Supervised Fine-Tuning) FFT (Full Fine-Tune). Мы использовали синтетический датасет **GrandMaster-2**.
#### EN
**QVikhr-3-1.7B-Instruction-noreasoning** was developed using the SFT (Supervised Fine-Tuning) FFT (Full Fine-Tune) method. The synthetic dataset **GrandMaster-2**.
## Пример кода для запуска / Sample code to run:
**Рекомендуемая температура для генерации: 0.3** / **Recommended generation temperature: 0.3**.
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
# Load the model and tokenizer
model_name = "Vikhrmodels/QVikhr-3-1.7B-Instruction-noreasoning"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Prepare the input text
input_text = "Напиши краткое описание книги Гарри Поттер."
messages = [
{"role": "user", "content": input_text},
]
# Tokenize and generate text
input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt")
output = model.generate(
input_ids,
max_length=1512,
temperature=0.3,
num_return_sequences=1,
no_repeat_ngram_size=2,
top_k=50,
top_p=0.95,
)
# Decode and print result
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
````
#### Ответ модели / Model response:
> \<think\>
>
> \</think\>
>
> **Краткое описание книги Гарри Поттера:**
>
> *«Гарри Поттер и философский камень»* — это история о мальчике, который, несмотря на слабость, стал свидетелем великих событий, связанных с магией, мистикой и поиском истинного смысла. Гарри, живущий в маленьком городке, влюбляется в магию, когда случайно участвует в неожиданном приключении, где он стал свидетелем загадочного события, связанного с «Философским камнем».
>
> Во время этого события он сталкивается с тремя магами, которые, по их словам, «все видят в будущем». Они предупреждают о приближении опасного события, которое может изменить мир. Гарри, несмотря на страх и неопределенность, решает следовать за магами, чтобы спасти мир.
>
> Вместе с Дорис и Ниммом он отправляется в путешествие в прошлое, чтобы изменить судьбу, но столкнувшись с трудностями и непредвиденными обстоятельствами, они находят силы преодолеть их.
>
> Конец книги — это встреча с «Философским камнем», который, как оказалось, может изменить реальность. Гарри понимает, что его выбор и действия могут изменить мир, и решает не бежать от ответственности, а стать частью великой миссии.
>
> *«Гарри Поттер и философский камень»* стал символом магии, веры в чудеса и силы, а также оставит на века глубокий след в литературном наследии.
### Авторы / Authors
- Sergei Bratchikov, [NLP Wanderer](https://t.me/nlpwanderer), [Vikhr Team](https://t.me/vikhrlabs)
- Nikolay Kompanets, [LakoMoor](https://t.me/lakomoordev), [Vikhr Team](https://t.me/vikhrlabs)
- Konstantin Korolev, [Vikhr Team](https://t.me/vikhrlabs)
- Aleksandr Nikolich, [Vikhr Team](https://t.me/vikhrlabs)
### Как цитировать / How to Cite
```bibtex
@inproceedings{nikolich2024vikhr,
title={Vikhr: Advancing Open-Source Bilingual Instruction-Following Large Language Models for Russian and English},
author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Nikolay Kompanets and Igor Kiselev and Artem Shelmanov},
booktitle={Proceedings of the 4th Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024},
year={2024},
publisher={Association for Computational Linguistics},
url={[https://arxiv.org/pdf/2405.13929](https://arxiv.org/pdf/2405.13929)}
}
@misc{qwen3technicalreport,
title={Qwen3 Technical Report},
author={Qwen Team},
year={2025},
eprint={2505.09388},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2505.09388},
}
``` |