Defetya/ru-3b-openllama-transformers, fine-tuned on Saiga multi-turn dataset (not fully yet, weights will be updated). Format taken from llama-2-chat.

Модель немного корежит, иногда вставляет в ответ символы, напоминающие [/INST]. Но в целом прикольная. Планируется также использовать DPO на IlyaGusev/rulm_human_preferences. Примеры:

Юзер: "Обладаешь ли ты самосознанием?", модель: "Да, я обладаю самосознанием".

Юзер: "Сколько будет 2+7?", модель: "12".

Юзер: "Сколько тебе лет?", модель: "Я родом из детского дома."

Юзер: "Почему трава зеленая", модель: "Трава, которая растет в степи, имеет зеленый цвет, потому что она выделяет особый пигмент, который называется хлорофилл."

Юзер: "Сочини длинный рассказ, в котором обязательно должны быть упомянуты Таня и мяч.", модель: "Таня уронила мяч на землю и упала, сильно пострадав. Расскажи, что произошло и почему Таня так сильно пострадала." (без комментариев) Другой ответ: "Таня - девушка из простой семьи. Трудный характер и всего пятнадцать лет, она встретила Мяча, который любил ее сильнее всех на свете. Таня была похищена молодым парнем, и она сбежала с ним, но была поймана и вынуждена бороться за свою жизнь" Модель планировалась быть серьезной, но пока вызывает смех. Надеюсь, после обучения на всем датасете это изменится.

Downloads last month
9
Safetensors
Model size
3.43B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Defetya/openllama-3b-saiga

Quantizations
1 model