--- task_categories: - automatic-speech-recognition - audio-classification language: - ru tags: - audio - music - lyrics - subtitles --- Этот маленький датасет который состит из песен и субтитров к ним, можно сказать просто скачен из spotify автоматически. Изначально создан лично для меня, но я понял что моему пк не посилу дообучить даже base модель так-что делюсь им и кодом который я попросил у ИИ. (Некоторые отдельные папки исполнителей или папки типа segments упакованны в .7z изза ограничений [**huggingface**](https://huggingface.co), обезательно распакуйте их перед использованием!)   Код для дообучения (ИИ): ```python from datasets import load_dataset, Audio from transformers import ( WhisperProcessor, WhisperForConditionalGeneration, Seq2SeqTrainer, Seq2SeqTrainingArguments ) import torch import os import json # === 1. Загружаем и готовим датасет === dataset = load_dataset("json", data_files="segments/dataset.jsonl", split="train") dataset = dataset.cast_column("audio_filepath", Audio(sampling_rate=16000)) dataset = dataset.rename_column("audio_filepath", "audio") # Если нет столбца language, достаём из JSONL if "language" not in dataset.features: with open("segments/dataset.jsonl", "r", encoding="utf-8") as f: langs = [json.loads(line).get("language", "ru") for line in f] dataset = dataset.add_column("language", langs) # 2. Проверка наличия чекпоинта checkpoint_dir = "./whisper-finetuned" checkpoint = None if os.path.exists(checkpoint_dir): checkpoints = [d for d in os.listdir(checkpoint_dir) if d.startswith("checkpoint-")] if checkpoints: checkpoint = os.path.join(checkpoint_dir, max(checkpoints, key=lambda x: int(x.split("-")[1]))) print(f"Найден чекпоинт: {checkpoint}") else: print("Чекпоинты не найдены. Начинаем обучение с нуля.") # 3. Загружаем модель и процессор processor = WhisperProcessor.from_pretrained("openai/whisper-base") # Всегда загружаем из оригинальной модели model_name = checkpoint if checkpoint else "openai/whisper-base" model = WhisperForConditionalGeneration.from_pretrained(model_name) # Жёстко задаём язык и задачу model.config.forced_decoder_ids = processor.get_decoder_prompt_ids(language="ru", task="transcribe") # === 4. collate_fn для батчей === def collate_fn(batch): audio_arrays = [example["audio"]["array"] for example in batch] texts = [example["text"] for example in batch] # Обработка аудио в mel-спектрограммы inputs = processor.feature_extractor( audio_arrays, sampling_rate=16000, return_tensors="pt", padding=True, truncation=True, max_length=3000 # Указываем максимальную длину ) input_features = inputs.input_features # Проверяем и дополняем до длины 3000 if input_features.shape[-1] < 3000: pad_width = (0, 3000 - input_features.shape[-1]) # Паддинг только по последней оси input_features = torch.nn.functional.pad(input_features, pad_width, "constant", 0) # Обработка текстовых меток labels = processor.tokenizer( texts, return_tensors="pt", padding="longest", truncation=True, max_length=448 ).input_ids return { "input_features": input_features, "labels": labels } # === 5. Параметры тренировки === training_args = Seq2SeqTrainingArguments( output_dir=checkpoint_dir, per_device_train_batch_size=32, gradient_accumulation_steps=1, learning_rate=1e-5, num_train_epochs=25, logging_steps=1, save_strategy="steps", save_steps=5, save_total_limit=9999, fp16=torch.cuda.is_available(), remove_unused_columns=False, push_to_hub=False, ) # === 6. Создаём Trainer === trainer = Seq2SeqTrainer( model=model, args=training_args, train_dataset=dataset, processing_class=processor, # вместо tokenizer используем processing_class data_collator=collate_fn ) # === 7. Запускаем дообучение === print("🚀 Старт дообучения…") trainer.train(resume_from_checkpoint=checkpoint) print("✅ Дообучение завершено.") # === 8. Сохраняем финальную модель и процессор === model.save_pretrained(checkpoint_dir) processor.save_pretrained(checkpoint_dir) ``` Удачи! :)