Dataset Preview
The full dataset viewer is not available (click to read why). Only showing a preview of the rows.
The dataset generation failed
Error code:   DatasetGenerationError
Exception:    TypeError
Message:      Mask must be a pyarrow.Array of type boolean
Traceback:    Traceback (most recent call last):
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1586, in _prepare_split_single
                  writer.write(example, key)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 553, in write
                  self.write_examples_on_file()
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 511, in write_examples_on_file
                  self.write_batch(batch_examples=batch_examples)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 631, in write_batch
                  self.write_table(pa_table, writer_batch_size)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 646, in write_table
                  pa_table = embed_table_storage(pa_table)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2248, in embed_table_storage
                  arrays = [
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2249, in <listcomp>
                  embed_array_storage(table[name], feature, token_per_repo_id=token_per_repo_id)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 1795, in wrapper
                  return pa.chunked_array([func(chunk, *args, **kwargs) for chunk in array.chunks])
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 1795, in <listcomp>
                  return pa.chunked_array([func(chunk, *args, **kwargs) for chunk in array.chunks])
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2124, in embed_array_storage
                  return feature.embed_storage(array, token_per_repo_id=token_per_repo_id)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/features/audio.py", line 289, in embed_storage
                  storage = pa.StructArray.from_arrays([bytes_array, path_array], ["bytes", "path"], mask=bytes_array.is_null())
                File "pyarrow/array.pxi", line 3257, in pyarrow.lib.StructArray.from_arrays
                File "pyarrow/array.pxi", line 3697, in pyarrow.lib.c_mask_inverted_from_obj
              TypeError: Mask must be a pyarrow.Array of type boolean
              
              During handling of the above exception, another exception occurred:
              
              Traceback (most recent call last):
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1595, in _prepare_split_single
                  num_examples, num_bytes = writer.finalize()
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 658, in finalize
                  self.write_examples_on_file()
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 511, in write_examples_on_file
                  self.write_batch(batch_examples=batch_examples)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 631, in write_batch
                  self.write_table(pa_table, writer_batch_size)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 646, in write_table
                  pa_table = embed_table_storage(pa_table)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2248, in embed_table_storage
                  arrays = [
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2249, in <listcomp>
                  embed_array_storage(table[name], feature, token_per_repo_id=token_per_repo_id)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 1795, in wrapper
                  return pa.chunked_array([func(chunk, *args, **kwargs) for chunk in array.chunks])
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 1795, in <listcomp>
                  return pa.chunked_array([func(chunk, *args, **kwargs) for chunk in array.chunks])
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2124, in embed_array_storage
                  return feature.embed_storage(array, token_per_repo_id=token_per_repo_id)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/features/audio.py", line 289, in embed_storage
                  storage = pa.StructArray.from_arrays([bytes_array, path_array], ["bytes", "path"], mask=bytes_array.is_null())
                File "pyarrow/array.pxi", line 3257, in pyarrow.lib.StructArray.from_arrays
                File "pyarrow/array.pxi", line 3697, in pyarrow.lib.c_mask_inverted_from_obj
              TypeError: Mask must be a pyarrow.Array of type boolean
              
              The above exception was the direct cause of the following exception:
              
              Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1451, in compute_config_parquet_and_info_response
                  parquet_operations, partial, estimated_dataset_info = stream_convert_to_parquet(
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 994, in stream_convert_to_parquet
                  builder._prepare_split(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1447, in _prepare_split
                  for job_id, done, content in self._prepare_split_single(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1604, in _prepare_split_single
                  raise DatasetGenerationError("An error occurred while generating the dataset") from e
              datasets.exceptions.DatasetGenerationError: An error occurred while generating the dataset

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

audio
audio
label
class label
15mewmet - Sugarflip [vocal]
05mewmet - Sugarflip
35mewmet - V Noski [vocal]
25mewmet - V Noski
55mewmet - Макаров [vocal]
45mewmet - Макаров
75mewmet - Мефистофель [vocal]
65mewmet - Мефистофель
95mewmet - Мы не те [vocal]
85mewmet - Мы не те
115mewmet - Прощай [vocal]
105mewmet - Прощай
135mewmet - Сегодня ты тусишь! [vocal]
125mewmet - Сегодня ты тусишь!
155mewmet - Футбол 2 [vocal]
145mewmet - Футбол 2
175mewmet - почему я до сих пор не рип [vocal]
165mewmet - почему я до сих пор не рип
195mewmet - ты знаешь) [vocal]
185mewmet - ты знаешь)
21CMH - хоум видео [vocal]
20CMH - хоум видео
23Eldzhey - Чупа Чупс [vocal]
22Eldzhey - Чупа Чупс
25FirstFeel - Убитый [vocal]
24FirstFeel - Убитый
27INSTASAMKA - Ай лав ю [vocal]
26INSTASAMKA - Ай лав ю
29INSTASAMKA - За деньги нет [vocal]
28INSTASAMKA - За деньги нет
31INSTASAMKA - Рок [vocal]
30INSTASAMKA - Рок
33INSTASAMKA - Русские вперед [vocal]
32INSTASAMKA - Русские вперед
35INSTASAMKA - Хорошо [vocal]
34INSTASAMKA - Хорошо
37IOWA - Money Race--en-- [vocal]
36IOWA - Money Race--en--
39IOWA - Ищу мужа [vocal]
38IOWA - Ищу мужа
41IOWA - Красота [vocal]
40IOWA - Красота
43IOWA - Плохо танцевать [vocal]
42IOWA - Плохо танцевать
45IOWA - Потанцуй со мной [vocal]
44IOWA - Потанцуй со мной
47IOWA - Простая песня [vocal]
46IOWA - Простая песня
49IOWA - Снег идёт [vocal]
48IOWA - Снег идёт
52IOWA - Улыбайся (Ivan Spell Remix) [vocal]
51IOWA - Улыбайся (Ivan Spell Remix)
53IOWA - Улыбайся [vocal]
50IOWA - Улыбайся
55Leningrad - Maybe [vocal]
54Leningrad - Maybe
57Leningrad - А у олигархата [vocal]
56Leningrad - А у олигархата
59Leningrad - Амплуа [vocal]
58Leningrad - Амплуа
61Leningrad - Ария робота [vocal]
60Leningrad - Ария робота
63Leningrad - Без тебя [vocal]
62Leningrad - Без тебя
65Leningrad - Биг Ловкая Жопа и Ленинградский Болт [vocal]
64Leningrad - Биг Ловкая Жопа и Ленинградский Болт
67Leningrad - Бляди [vocal]
66Leningrad - Бляди
69Leningrad - Бомба [vocal]
68Leningrad - Бомба
71Leningrad - В Питере — пить [vocal]
70Leningrad - В Питере — пить
73Leningrad - В клубе модном [vocal]
72Leningrad - В клубе модном
75Leningrad - ВИП [vocal]
74Leningrad - ВИП
77Leningrad - Вояж [vocal]
76Leningrad - Вояж
79Leningrad - Гамаюн [vocal]
78Leningrad - Гамаюн
81Leningrad - Где мы есть [vocal]
80Leningrad - Где мы есть
83Leningrad - Девушка с понятием [vocal]
82Leningrad - Девушка с понятием
85Leningrad - День рождения [vocal]
84Leningrad - День рождения
87Leningrad - Дым и вода [vocal]
86Leningrad - Дым и вода
89Leningrad - Иноагент [vocal]
88Leningrad - Иноагент
91Leningrad - Кабриолет [vocal]
90Leningrad - Кабриолет
93Leningrad - Когда-нибудь [vocal]
92Leningrad - Когда-нибудь
95Leningrad - Кредит [vocal]
94Leningrad - Кредит
97Leningrad - Кто кого [vocal]
96Leningrad - Кто кого
99Leningrad - Лайф из фак [vocal]
98Leningrad - Лайф из фак
End of preview.

Этот маленький датасет который состит из песен и субтитров к ним, можно сказать просто скачен из spotify автоматически.
Изначально создан лично для меня, но я понял что моему пк не посилу дообучить даже base модель так-что делюсь им и кодом который я попросил у ИИ.
(Некоторые отдельные папки исполнителей или папки типа segments упакованны в .7z изза ограничений huggingface, обезательно распакуйте их перед использованием!)
 
Код для дообучения (ИИ):

from datasets import load_dataset, Audio
from transformers import (
    WhisperProcessor,
    WhisperForConditionalGeneration,
    Seq2SeqTrainer,
    Seq2SeqTrainingArguments
)
import torch
import os
import json

# === 1. Загружаем и готовим датасет ===
dataset = load_dataset("json", data_files="segments/dataset.jsonl", split="train")
dataset = dataset.cast_column("audio_filepath", Audio(sampling_rate=16000))
dataset = dataset.rename_column("audio_filepath", "audio")

# Если нет столбца language, достаём из JSONL
if "language" not in dataset.features:
    with open("segments/dataset.jsonl", "r", encoding="utf-8") as f:
        langs = [json.loads(line).get("language", "ru") for line in f]
    dataset = dataset.add_column("language", langs)

# 2. Проверка наличия чекпоинта
checkpoint_dir = "./whisper-finetuned"
checkpoint = None
if os.path.exists(checkpoint_dir):
    checkpoints = [d for d in os.listdir(checkpoint_dir) if d.startswith("checkpoint-")]
    if checkpoints:
        checkpoint = os.path.join(checkpoint_dir, max(checkpoints, key=lambda x: int(x.split("-")[1])))
        print(f"Найден чекпоинт: {checkpoint}")
    else:
        print("Чекпоинты не найдены. Начинаем обучение с нуля.")

# 3. Загружаем модель и процессор
processor = WhisperProcessor.from_pretrained("openai/whisper-base")  # Всегда загружаем из оригинальной модели
model_name = checkpoint if checkpoint else "openai/whisper-base"
model = WhisperForConditionalGeneration.from_pretrained(model_name)

# Жёстко задаём язык и задачу
model.config.forced_decoder_ids = processor.get_decoder_prompt_ids(language="ru", task="transcribe")

# === 4. collate_fn для батчей ===
def collate_fn(batch):
    audio_arrays = [example["audio"]["array"] for example in batch]
    texts = [example["text"] for example in batch]

    # Обработка аудио в mel-спектрограммы
    inputs = processor.feature_extractor(
        audio_arrays,
        sampling_rate=16000,
        return_tensors="pt",
        padding=True,
        truncation=True,
        max_length=3000  # Указываем максимальную длину
    )

    input_features = inputs.input_features

    # Проверяем и дополняем до длины 3000
    if input_features.shape[-1] < 3000:
        pad_width = (0, 3000 - input_features.shape[-1])  # Паддинг только по последней оси
        input_features = torch.nn.functional.pad(input_features, pad_width, "constant", 0)

    # Обработка текстовых меток
    labels = processor.tokenizer(
        texts,
        return_tensors="pt",
        padding="longest",
        truncation=True,
        max_length=448
    ).input_ids

    return {
        "input_features": input_features,
        "labels": labels
    }

# === 5. Параметры тренировки ===
training_args = Seq2SeqTrainingArguments(
    output_dir=checkpoint_dir,
    per_device_train_batch_size=32,
    gradient_accumulation_steps=1,
    learning_rate=1e-5,
    num_train_epochs=25,
    logging_steps=1,
    save_strategy="steps",
    save_steps=5,
    save_total_limit=9999,
    fp16=torch.cuda.is_available(),
    remove_unused_columns=False,
    push_to_hub=False,
)

# === 6. Создаём Trainer ===
trainer = Seq2SeqTrainer(
    model=model,
    args=training_args,
    train_dataset=dataset,
    processing_class=processor,      # вместо tokenizer используем processing_class
    data_collator=collate_fn
)

# === 7. Запускаем дообучение ===
print("🚀 Старт дообучения…")
trainer.train(resume_from_checkpoint=checkpoint)
print("✅ Дообучение завершено.")

# === 8. Сохраняем финальную модель и процессор ===
model.save_pretrained(checkpoint_dir)
processor.save_pretrained(checkpoint_dir)

Удачи! :)

Downloads last month
90