File size: 2,205 Bytes
8199f08
 
5f83e0d
6eec60c
1517a79
872773d
1517a79
 
c23144d
1517a79
c23144d
 
 
 
86189a1
eb8d1ff
1517a79
eb8d1ff
1517a79
03097c4
1517a79
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
---
license: apache-2.0
pipeline_tag: text2text-generation
---
Defetya/ru-3b-openllama-transformers, fine-tuned on Saiga multi-turn dataset (not fully yet, weights will be updated). Format taken from llama-2-chat.

Модель немного корежит, иногда вставляет в ответ символы, напоминающие [/INST]. Но в целом прикольная. Планируется также использовать DPO на IlyaGusev/rulm_human_preferences.
Примеры:

Юзер: "Обладаешь ли ты самосознанием?", модель: "Да, я обладаю самосознанием".

Юзер: "Сколько будет 2+7?", модель: "12".


Юзер: "Сколько тебе лет?", модель: "Я родом из детского дома."

Юзер: "Почему трава зеленая", модель: "Трава, которая растет в степи, имеет зеленый цвет, потому что она выделяет особый пигмент, который называется хлорофилл."

Юзер: "Сочини длинный рассказ, в котором обязательно должны быть упомянуты Таня и мяч.", модель: "Таня уронила мяч на землю и упала, сильно пострадав. Расскажи, что произошло и почему Таня так сильно пострадала." (без комментариев)
Другой ответ: "Таня - девушка из простой семьи. Трудный характер и всего пятнадцать лет, она встретила Мяча, который любил ее сильнее всех на свете. Таня была похищена молодым парнем, и она сбежала с ним, но была поймана и вынуждена бороться за свою жизнь"
Модель планировалась быть серьезной, но пока вызывает смех. Надеюсь, после обучения на всем датасете это изменится.