YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

Braindler Final Model v2

🎓 Образовательный AI-ассистент для изучения русского языка

Модель fine-tuned на образовательных датасетах для помощи детям и взрослым в изучении русского языка.

📦 Доступные форматы

HuggingFace (PyTorch)

Стандартный формат для использования с Transformers (501 MB)

GGUF (llama.cpp / Ollama)

Оптимизированные квантизированные версии для локального запуска:

Версия Размер Качество Рекомендация
Q2_K 68 MB Минимальное Слабые устройства 📱
Q3_K_S 73 MB Низкое Мобильные 💻
Q4_K_S 84 MB Среднее Баланс ⚖️
Q4_K_M 90 MB Хорошее РЕКОМЕНДУЕТСЯ
Q5_K_M 99 MB Высокое Продакшн 💎
Q8_0 133 MB Отличное Максимум 🏆
F16 244 MB Без потерь GPU 🎯

📚 Датасеты для обучения

  1. mozgach_trener (97 примеров)

    • Алфавит (66 примеров)
    • Цифры (11 примеров)
    • Цвета (10 примеров)
    • Геометрические фигуры (5 примеров)
    • Голосовые команды (5 примеров)
  2. alice_gift (66 примеров)

    • Дополнительные текстовые данные на русском

Всего примеров: 163 | Эпох: 3

🚀 Использование

С Transformers (PyTorch)

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("nativemind/braindler_final_model")
tokenizer = AutoTokenizer.from_pretrained("nativemind/braindler_final_model")

prompt = "User: Как произносится буква А?\nAssistant:"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=200, temperature=0.7)
print(tokenizer.decode(outputs[0]))

С Ollama (GGUF) ⭐ Рекомендуется

# 1. Скачайте GGUF файл
huggingface-cli download nativemind/braindler_final_model \
  braindler_final_model_Q4_K_M.gguf --local-dir ./

# 2. Создайте Modelfile
cat > Modelfile << 'EOF'
FROM ./braindler_final_model_Q4_K_M.gguf
TEMPLATE """{{- if .System }}System: {{ .System }}{{- end }}
User: {{ .Prompt }}
Assistant:"""
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER num_ctx 2048
SYSTEM """Ты - Braindler, образовательный ассистент для изучения русского языка. Помогаешь учить буквы, цифры, цвета и слова. Отвечай дружелюбно и понятно."""
EOF

# 3. Создайте модель
ollama create braindler -f Modelfile

# 4. Запустите
ollama run braindler

С llama.cpp

# Скачайте GGUF файл и запустите
./llama-cli \
  -m braindler_final_model_Q4_K_M.gguf \
  -p "User: Расскажи о букве А\nAssistant:" \
  -n 128 --temp 0.7 -ngl 99

📖 Примеры

User: Как произносится буква А?
Assistant: Буква 'А' произносится как 'а'. Попробуй произнести её вслух: а.

User: Назови слова на букву Б
Assistant: Слова на букву 'б': банан, бабочка, барабан, белка

User: Что такое треугольник?
Assistant: Треугольник - это фигура с 3 сторонами и 3 углами. Похож на крышу дома.

📊 Характеристики модели

  • Базовая модель: nativemind/braindler_full_trained_model
  • Архитектура: GPT-2 (125M параметров)
  • Язык: Русский 🇷🇺
  • Контекст: 2048 токенов
  • Задача: Text Generation, Образовательный ассистент
  • Лицензия: NativeMindNONC (Non-Commercial)

🎯 Применение

  • Образовательные приложения для детей
  • Обучение русскому языку
  • Интерактивные образовательные боты
  • Голосовые ассистенты
  • Локальные AI приложения

⚙️ Рекомендации по выбору версии

  • Мобильные устройства: Q2_K или Q3_K_S
  • Десктопы/ноутбуки: Q4_K_M ⭐ (лучший баланс)
  • Продакшн: Q5_K_M
  • Максимальное качество: Q8_0 или F16

🔗 Ссылки

📧 Контакты


© 2025 NativeMind. Для некоммерческого использования.

Образование должно быть доступным! 🎓

Downloads last month
13
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support