File size: 2,205 Bytes
8199f08 5f83e0d 6eec60c 1517a79 872773d 1517a79 c23144d 1517a79 c23144d 86189a1 eb8d1ff 1517a79 eb8d1ff 1517a79 03097c4 1517a79 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 |
---
license: apache-2.0
pipeline_tag: text2text-generation
---
Defetya/ru-3b-openllama-transformers, fine-tuned on Saiga multi-turn dataset (not fully yet, weights will be updated). Format taken from llama-2-chat.
Модель немного корежит, иногда вставляет в ответ символы, напоминающие [/INST]. Но в целом прикольная. Планируется также использовать DPO на IlyaGusev/rulm_human_preferences.
Примеры:
Юзер: "Обладаешь ли ты самосознанием?", модель: "Да, я обладаю самосознанием".
Юзер: "Сколько будет 2+7?", модель: "12".
Юзер: "Сколько тебе лет?", модель: "Я родом из детского дома."
Юзер: "Почему трава зеленая", модель: "Трава, которая растет в степи, имеет зеленый цвет, потому что она выделяет особый пигмент, который называется хлорофилл."
Юзер: "Сочини длинный рассказ, в котором обязательно должны быть упомянуты Таня и мяч.", модель: "Таня уронила мяч на землю и упала, сильно пострадав. Расскажи, что произошло и почему Таня так сильно пострадала." (без комментариев)
Другой ответ: "Таня - девушка из простой семьи. Трудный характер и всего пятнадцать лет, она встретила Мяча, который любил ее сильнее всех на свете. Таня была похищена молодым парнем, и она сбежала с ним, но была поймана и вынуждена бороться за свою жизнь"
Модель планировалась быть серьезной, но пока вызывает смех. Надеюсь, после обучения на всем датасете это изменится.
|