|
--- |
|
language: |
|
- id |
|
license: |
|
- cc-by-sa-3.0 |
|
- gfdl |
|
size_categories: |
|
- n<1K |
|
- 1K<n<10K |
|
- 10K<n<100K |
|
task_categories: |
|
- text-generation |
|
- fill-mask |
|
task_ids: |
|
- language-modeling |
|
- masked-language-modeling |
|
configs: |
|
- config_name: Part001 |
|
data_files: |
|
- split: train |
|
path: Part001/train-* |
|
- config_name: Part002 |
|
data_files: |
|
- split: train |
|
path: Part002/train-* |
|
- config_name: Part003 |
|
data_files: |
|
- split: train |
|
path: Part003/train-* |
|
- config_name: Part004 |
|
data_files: |
|
- split: train |
|
path: Part004/train-* |
|
- config_name: Part005 |
|
data_files: |
|
- split: train |
|
path: Part005/train-* |
|
- config_name: Part006 |
|
data_files: |
|
- split: train |
|
path: Part006/train-* |
|
- config_name: Part007 |
|
data_files: |
|
- split: train |
|
path: Part007/train-* |
|
- config_name: Part008 |
|
data_files: |
|
- split: train |
|
path: Part008/train-* |
|
- config_name: Part009 |
|
data_files: |
|
- split: train |
|
path: Part009/train-* |
|
- config_name: Part010 |
|
data_files: |
|
- split: train |
|
path: Part010/train-* |
|
- config_name: Part011 |
|
data_files: |
|
- split: train |
|
path: Part011/train-* |
|
- config_name: Part012 |
|
data_files: |
|
- split: train |
|
path: Part012/train-* |
|
- config_name: Part013 |
|
data_files: |
|
- split: train |
|
path: Part013/train-* |
|
- config_name: Part014 |
|
data_files: |
|
- split: train |
|
path: Part014/train-* |
|
--- |
|
|
|
# Dataset: Wikipedia Indonesian (Partial Splits) |
|
|
|
## Motivasi |
|
|
|
Mengembangkan dan mempersiapkan dataset ini untuk *fine-tuning* bukanlah hal yang mudah, terutama dengan keterbatasan *resource* yang saya alami. Meski saya sudah berlangganan **Colab Pro+** yang menjanjikan akses ke GPU berperforma tinggi (seperti A100 atau H100) dan *resource* lebih besar, ada beberapa tantangan signifikan yang muncul: |
|
|
|
* **Pembatasan Disk Space Colab VM:** Saya sering menghadapi masalah "No space left on device" pada disk lokal Colab VM. Ini terjadi bahkan saat saya sudah mengelola file *checkpoint* dan *cache* Google Drive dengan sangat cermat. |
|
* **Keterbatasan Ruang Google Drive yang Terhubung:** Saya memiliki akun Google Drive *unlimited* terpisah, namun sayangnya **tidak bisa memanfaatkan ruang Drive tersebut secara langsung dengan akun Google Colab yang saya gunakan untuk pelatihan.** Hal ini berarti saya terikat pada batas penyimpanan Google Drive standar yang terhubung dengan akun Colab utama saya, sangat membatasi kapasitas untuk menyimpan *checkpoint* besar atau data mentah secara aman. |
|
* **Masalah Sinkronisasi Google Drive:** Terkadang, terjadi korupsi *cache* Google Drive File Stream atau masalah sinkronisasi yang menyebabkan file *checkpoint* yang sudah saya simpan menghilang secara misterius, atau terlihat kosong di VM. Ini terjadi meskipun file-nya mungkin masih ada di *cloud*. Kondisi ini berujung pada hilangnya progres pelatihan berjam-jam dan keharusan mengulang proses dari awal. |
|
* **Keterbatasan Sesi:** Meskipun Colab Pro+ menyediakan sesi yang lebih panjang, batasan waktu tetap ada. Jika tidak diantisipasi dengan *checkpointing* yang andal, sesi pelatihan yang terputus bisa sangat merugikan. |
|
|
|
Pengalaman ini mendorong saya untuk mengadopsi pendekatan "multipart" untuk dataset ini dan menekankan pentingnya manajemen *resource* yang ketat serta strategi *checkpointing* yang *robust*. Semoga dengan membagi dataset ini, pengguna lain bisa lebih mudah mengelola *resource* mereka saat *fine-tuning* model mereka sendiri. |
|
|
|
----- |
|
|
|
## Deskripsi Dataset |
|
Dataset ini berisi bagian-bagian *(splits)* dari korpus **Wikipedia berbahasa Indonesia**, yang diekstrak pada tanggal **1 November 2023**. Dataset asli dimuat dari koleksi `wikimedia/wikipedia` di Hugging Face Hub. |
|
Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan *fine-tuning* model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi **14 parts** yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli. |
|
|
|
----- |
|
|
|
## Struktur Dataset |
|
Dataset ini distrukturkan menjadi beberapa *individual split*, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli. |
|
- Total Part: 14 |
|
- Nama: `Part001`, `Part002`, ..., `Part014` |
|
- Format: Apache Arrow atau Parquet |
|
|
|
----- |
|
|
|
## Kolom |
|
Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli: |
|
- `id`: (string) ID unik dari artikel Wikipedia. |
|
- `url`: (string) URL artikel Wikipedia. |
|
- `title`: (string) Judul artikel Wikipedia. |
|
- `text`: (string) Konten teks lengkap dari artikel Wikipedia. |
|
|
|
----- |
|
|
|
## Cara Menggunakan Dataset |
|
Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu. |
|
|
|
### Memuat Seluruh Dataset |
|
Untuk memuat semua split sebagai satu dataset tunggal (akan memakan memori jika digabungkan sepenuhnya), Anda bisa melakukan ini: |
|
``` |
|
from datasets import load_dataset |
|
|
|
dataset = load_dataset("nxvay/wikipedia-id-splits") |
|
print(dataset) |
|
|
|
# Output |
|
DatasetDict({ |
|
train: Dataset({ |
|
features: ['id', 'url', 'title', 'text'], |
|
num_rows: 250000 |
|
}) |
|
}) |
|
``` |
|
|
|
### Memuat Split Tertentu |
|
Jika Anda hanya ingin memuat split tertentu (misalnya, `Part002`), Anda bisa menentukannya: |
|
``` |
|
from datasets import load_dataset |
|
|
|
dataset_002 = load_dataset("nxvay/wikipedia-id-splits", "Part002", split="train") |
|
dataset_002[0] |
|
|
|
# Output |
|
{'id': '156840', |
|
'url': 'https://id.wikipedia.org/wiki/Penyarang%2C%20Sidareja%2C%20Cilacap', |
|
'title': 'Penyarang, Sidareja, Cilacap', |
|
'text': 'Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia.'} |
|
``` |
|
|
|
### Mengakses Data |
|
Setelah dimuat, Anda bisa mengakses data seperti dataset Hugging Face pada umumnya: |
|
``` |
|
example = part_001_dataset[0] |
|
|
|
print(f"Judul Artikel: {example['title']}") |
|
print(f"Isi Teks: {example['text'][:500]}...") # Cetak 500 karakter pertama |
|
|
|
# Outpu |
|
Judul Artikel: Penyarang, Sidareja, Cilacap |
|
Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia.... |
|
``` |
|
|
|
----- |
|
|
|
## Sumber Data |
|
Dataset ini berasal dari: |
|
- Nama Dataset Asli: `wikimedia/wikipedia` |
|
- Konfigurasi (Bahasa & Tanggal): `20231101.id` (Wikipedia bahasa Indonesia, snapshot 1 November 2023) |
|
|
|
Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas. |
|
|
|
----- |
|
|
|
## Catatan |
|
Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia. |
|
Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya. |