Dataset Preview
The full dataset viewer is not available (click to read why). Only showing a preview of the rows.
The dataset generation failed
Error code: DatasetGenerationError Exception: TypeError Message: Mask must be a pyarrow.Array of type boolean Traceback: Traceback (most recent call last): File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1586, in _prepare_split_single writer.write(example, key) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 553, in write self.write_examples_on_file() File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 511, in write_examples_on_file self.write_batch(batch_examples=batch_examples) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 631, in write_batch self.write_table(pa_table, writer_batch_size) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 646, in write_table pa_table = embed_table_storage(pa_table) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2248, in embed_table_storage arrays = [ File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2249, in <listcomp> embed_array_storage(table[name], feature, token_per_repo_id=token_per_repo_id) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 1795, in wrapper return pa.chunked_array([func(chunk, *args, **kwargs) for chunk in array.chunks]) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 1795, in <listcomp> return pa.chunked_array([func(chunk, *args, **kwargs) for chunk in array.chunks]) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2124, in embed_array_storage return feature.embed_storage(array, token_per_repo_id=token_per_repo_id) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/features/audio.py", line 289, in embed_storage storage = pa.StructArray.from_arrays([bytes_array, path_array], ["bytes", "path"], mask=bytes_array.is_null()) File "pyarrow/array.pxi", line 3257, in pyarrow.lib.StructArray.from_arrays File "pyarrow/array.pxi", line 3697, in pyarrow.lib.c_mask_inverted_from_obj TypeError: Mask must be a pyarrow.Array of type boolean During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1595, in _prepare_split_single num_examples, num_bytes = writer.finalize() File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 658, in finalize self.write_examples_on_file() File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 511, in write_examples_on_file self.write_batch(batch_examples=batch_examples) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 631, in write_batch self.write_table(pa_table, writer_batch_size) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 646, in write_table pa_table = embed_table_storage(pa_table) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2248, in embed_table_storage arrays = [ File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2249, in <listcomp> embed_array_storage(table[name], feature, token_per_repo_id=token_per_repo_id) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 1795, in wrapper return pa.chunked_array([func(chunk, *args, **kwargs) for chunk in array.chunks]) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 1795, in <listcomp> return pa.chunked_array([func(chunk, *args, **kwargs) for chunk in array.chunks]) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2124, in embed_array_storage return feature.embed_storage(array, token_per_repo_id=token_per_repo_id) File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/features/audio.py", line 289, in embed_storage storage = pa.StructArray.from_arrays([bytes_array, path_array], ["bytes", "path"], mask=bytes_array.is_null()) File "pyarrow/array.pxi", line 3257, in pyarrow.lib.StructArray.from_arrays File "pyarrow/array.pxi", line 3697, in pyarrow.lib.c_mask_inverted_from_obj TypeError: Mask must be a pyarrow.Array of type boolean The above exception was the direct cause of the following exception: Traceback (most recent call last): File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1451, in compute_config_parquet_and_info_response parquet_operations, partial, estimated_dataset_info = stream_convert_to_parquet( File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 994, in stream_convert_to_parquet builder._prepare_split( File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1447, in _prepare_split for job_id, done, content in self._prepare_split_single( File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1604, in _prepare_split_single raise DatasetGenerationError("An error occurred while generating the dataset") from e datasets.exceptions.DatasetGenerationError: An error occurred while generating the dataset
Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.
audio
audio | label
class label |
---|---|
15mewmet - Sugarflip [vocal]
|
|
05mewmet - Sugarflip
|
|
35mewmet - V Noski [vocal]
|
|
25mewmet - V Noski
|
|
55mewmet - Макаров [vocal]
|
|
45mewmet - Макаров
|
|
75mewmet - Мефистофель [vocal]
|
|
65mewmet - Мефистофель
|
|
95mewmet - Мы не те [vocal]
|
|
85mewmet - Мы не те
|
|
115mewmet - Прощай [vocal]
|
|
105mewmet - Прощай
|
|
135mewmet - Сегодня ты тусишь! [vocal]
|
|
125mewmet - Сегодня ты тусишь!
|
|
155mewmet - Футбол 2 [vocal]
|
|
145mewmet - Футбол 2
|
|
175mewmet - почему я до сих пор не рип [vocal]
|
|
165mewmet - почему я до сих пор не рип
|
|
195mewmet - ты знаешь) [vocal]
|
|
185mewmet - ты знаешь)
|
|
21CMH - хоум видео [vocal]
|
|
20CMH - хоум видео
|
|
23Eldzhey - Чупа Чупс [vocal]
|
|
22Eldzhey - Чупа Чупс
|
|
25FirstFeel - Убитый [vocal]
|
|
24FirstFeel - Убитый
|
|
27INSTASAMKA - Ай лав ю [vocal]
|
|
26INSTASAMKA - Ай лав ю
|
|
29INSTASAMKA - За деньги нет [vocal]
|
|
28INSTASAMKA - За деньги нет
|
|
31INSTASAMKA - Рок [vocal]
|
|
30INSTASAMKA - Рок
|
|
33INSTASAMKA - Русские вперед [vocal]
|
|
32INSTASAMKA - Русские вперед
|
|
35INSTASAMKA - Хорошо [vocal]
|
|
34INSTASAMKA - Хорошо
|
|
37IOWA - Money Race--en-- [vocal]
|
|
36IOWA - Money Race--en--
|
|
39IOWA - Ищу мужа [vocal]
|
|
38IOWA - Ищу мужа
|
|
41IOWA - Красота [vocal]
|
|
40IOWA - Красота
|
|
43IOWA - Плохо танцевать [vocal]
|
|
42IOWA - Плохо танцевать
|
|
45IOWA - Потанцуй со мной [vocal]
|
|
44IOWA - Потанцуй со мной
|
|
47IOWA - Простая песня [vocal]
|
|
46IOWA - Простая песня
|
|
49IOWA - Снег идёт [vocal]
|
|
48IOWA - Снег идёт
|
|
52IOWA - Улыбайся (Ivan Spell Remix) [vocal]
|
|
51IOWA - Улыбайся (Ivan Spell Remix)
|
|
53IOWA - Улыбайся [vocal]
|
|
50IOWA - Улыбайся
|
|
55Leningrad - Maybe [vocal]
|
|
54Leningrad - Maybe
|
|
57Leningrad - А у олигархата [vocal]
|
|
56Leningrad - А у олигархата
|
|
59Leningrad - Амплуа [vocal]
|
|
58Leningrad - Амплуа
|
|
61Leningrad - Ария робота [vocal]
|
|
60Leningrad - Ария робота
|
|
63Leningrad - Без тебя [vocal]
|
|
62Leningrad - Без тебя
|
|
65Leningrad - Биг Ловкая Жопа и Ленинградский Болт [vocal]
|
|
64Leningrad - Биг Ловкая Жопа и Ленинградский Болт
|
|
67Leningrad - Бляди [vocal]
|
|
66Leningrad - Бляди
|
|
69Leningrad - Бомба [vocal]
|
|
68Leningrad - Бомба
|
|
71Leningrad - В Питере — пить [vocal]
|
|
70Leningrad - В Питере — пить
|
|
73Leningrad - В клубе модном [vocal]
|
|
72Leningrad - В клубе модном
|
|
75Leningrad - ВИП [vocal]
|
|
74Leningrad - ВИП
|
|
77Leningrad - Вояж [vocal]
|
|
76Leningrad - Вояж
|
|
79Leningrad - Гамаюн [vocal]
|
|
78Leningrad - Гамаюн
|
|
81Leningrad - Где мы есть [vocal]
|
|
80Leningrad - Где мы есть
|
|
83Leningrad - Девушка с понятием [vocal]
|
|
82Leningrad - Девушка с понятием
|
|
85Leningrad - День рождения [vocal]
|
|
84Leningrad - День рождения
|
|
87Leningrad - Дым и вода [vocal]
|
|
86Leningrad - Дым и вода
|
|
89Leningrad - Иноагент [vocal]
|
|
88Leningrad - Иноагент
|
|
91Leningrad - Кабриолет [vocal]
|
|
90Leningrad - Кабриолет
|
|
93Leningrad - Когда-нибудь [vocal]
|
|
92Leningrad - Когда-нибудь
|
|
95Leningrad - Кредит [vocal]
|
|
94Leningrad - Кредит
|
|
97Leningrad - Кто кого [vocal]
|
|
96Leningrad - Кто кого
|
|
99Leningrad - Лайф из фак [vocal]
|
|
98Leningrad - Лайф из фак
|
End of preview.
Этот маленький датасет который состит из песен и субтитров к ним, можно сказать просто скачен из spotify автоматически.
Изначально создан лично для меня, но я понял что моему пк не посилу дообучить даже base модель так-что делюсь им и кодом который я попросил у ИИ.
(Некоторые отдельные папки исполнителей или папки типа segments упакованны в .7z изза ограничений huggingface, обезательно распакуйте их перед использованием!)
Код для дообучения (ИИ):
from datasets import load_dataset, Audio
from transformers import (
WhisperProcessor,
WhisperForConditionalGeneration,
Seq2SeqTrainer,
Seq2SeqTrainingArguments
)
import torch
import os
import json
# === 1. Загружаем и готовим датасет ===
dataset = load_dataset("json", data_files="segments/dataset.jsonl", split="train")
dataset = dataset.cast_column("audio_filepath", Audio(sampling_rate=16000))
dataset = dataset.rename_column("audio_filepath", "audio")
# Если нет столбца language, достаём из JSONL
if "language" not in dataset.features:
with open("segments/dataset.jsonl", "r", encoding="utf-8") as f:
langs = [json.loads(line).get("language", "ru") for line in f]
dataset = dataset.add_column("language", langs)
# 2. Проверка наличия чекпоинта
checkpoint_dir = "./whisper-finetuned"
checkpoint = None
if os.path.exists(checkpoint_dir):
checkpoints = [d for d in os.listdir(checkpoint_dir) if d.startswith("checkpoint-")]
if checkpoints:
checkpoint = os.path.join(checkpoint_dir, max(checkpoints, key=lambda x: int(x.split("-")[1])))
print(f"Найден чекпоинт: {checkpoint}")
else:
print("Чекпоинты не найдены. Начинаем обучение с нуля.")
# 3. Загружаем модель и процессор
processor = WhisperProcessor.from_pretrained("openai/whisper-base") # Всегда загружаем из оригинальной модели
model_name = checkpoint if checkpoint else "openai/whisper-base"
model = WhisperForConditionalGeneration.from_pretrained(model_name)
# Жёстко задаём язык и задачу
model.config.forced_decoder_ids = processor.get_decoder_prompt_ids(language="ru", task="transcribe")
# === 4. collate_fn для батчей ===
def collate_fn(batch):
audio_arrays = [example["audio"]["array"] for example in batch]
texts = [example["text"] for example in batch]
# Обработка аудио в mel-спектрограммы
inputs = processor.feature_extractor(
audio_arrays,
sampling_rate=16000,
return_tensors="pt",
padding=True,
truncation=True,
max_length=3000 # Указываем максимальную длину
)
input_features = inputs.input_features
# Проверяем и дополняем до длины 3000
if input_features.shape[-1] < 3000:
pad_width = (0, 3000 - input_features.shape[-1]) # Паддинг только по последней оси
input_features = torch.nn.functional.pad(input_features, pad_width, "constant", 0)
# Обработка текстовых меток
labels = processor.tokenizer(
texts,
return_tensors="pt",
padding="longest",
truncation=True,
max_length=448
).input_ids
return {
"input_features": input_features,
"labels": labels
}
# === 5. Параметры тренировки ===
training_args = Seq2SeqTrainingArguments(
output_dir=checkpoint_dir,
per_device_train_batch_size=32,
gradient_accumulation_steps=1,
learning_rate=1e-5,
num_train_epochs=25,
logging_steps=1,
save_strategy="steps",
save_steps=5,
save_total_limit=9999,
fp16=torch.cuda.is_available(),
remove_unused_columns=False,
push_to_hub=False,
)
# === 6. Создаём Trainer ===
trainer = Seq2SeqTrainer(
model=model,
args=training_args,
train_dataset=dataset,
processing_class=processor, # вместо tokenizer используем processing_class
data_collator=collate_fn
)
# === 7. Запускаем дообучение ===
print("🚀 Старт дообучения…")
trainer.train(resume_from_checkpoint=checkpoint)
print("✅ Дообучение завершено.")
# === 8. Сохраняем финальную модель и процессор ===
model.save_pretrained(checkpoint_dir)
processor.save_pretrained(checkpoint_dir)
Удачи! :)
- Downloads last month
- 90