Datasets:
File size: 6,692 Bytes
2ba14f6 85079b8 2ba14f6 9cedaff 2ba14f6 9cedaff 2ba14f6 c074907 2ba14f6 9cedaff 2ba14f6 9cedaff 2ba14f6 85079b8 2ba14f6 c074907 2ba14f6 c074907 2ba14f6 c074907 2ba14f6 c074907 2ba14f6 9cedaff 2ba14f6 9cedaff 2ba14f6 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 |
---
language:
- id
license:
- cc-by-sa-3.0
- gfdl
size_categories:
- n<1K
- 1K<n<10K
- 10K<n<100K
task_categories:
- text-generation
- fill-mask
task_ids:
- language-modeling
- masked-language-modeling
configs:
- config_name: Part001
data_files:
- split: train
path: Part001/train-*
- config_name: Part002
data_files:
- split: train
path: Part002/train-*
- config_name: Part003
data_files:
- split: train
path: Part003/train-*
- config_name: Part004
data_files:
- split: train
path: Part004/train-*
- config_name: Part005
data_files:
- split: train
path: Part005/train-*
- config_name: Part006
data_files:
- split: train
path: Part006/train-*
- config_name: Part007
data_files:
- split: train
path: Part007/train-*
- config_name: Part008
data_files:
- split: train
path: Part008/train-*
- config_name: Part009
data_files:
- split: train
path: Part009/train-*
- config_name: Part010
data_files:
- split: train
path: Part010/train-*
- config_name: Part011
data_files:
- split: train
path: Part011/train-*
- config_name: Part012
data_files:
- split: train
path: Part012/train-*
- config_name: Part013
data_files:
- split: train
path: Part013/train-*
- config_name: Part014
data_files:
- split: train
path: Part014/train-*
---
# Dataset: Wikipedia Indonesian (Partial Splits)
## Motivasi
Mengembangkan dan mempersiapkan dataset ini untuk *fine-tuning* bukanlah hal yang mudah, terutama dengan keterbatasan *resource* yang saya alami. Meski saya sudah berlangganan **Colab Pro+** yang menjanjikan akses ke GPU berperforma tinggi (seperti A100 atau H100) dan *resource* lebih besar, ada beberapa tantangan signifikan yang muncul:
* **Pembatasan Disk Space Colab VM:** Saya sering menghadapi masalah "No space left on device" pada disk lokal Colab VM. Ini terjadi bahkan saat saya sudah mengelola file *checkpoint* dan *cache* Google Drive dengan sangat cermat.
* **Keterbatasan Ruang Google Drive yang Terhubung:** Saya memiliki akun Google Drive *unlimited* terpisah, namun sayangnya **tidak bisa memanfaatkan ruang Drive tersebut secara langsung dengan akun Google Colab yang saya gunakan untuk pelatihan.** Hal ini berarti saya terikat pada batas penyimpanan Google Drive standar yang terhubung dengan akun Colab utama saya, sangat membatasi kapasitas untuk menyimpan *checkpoint* besar atau data mentah secara aman.
* **Masalah Sinkronisasi Google Drive:** Terkadang, terjadi korupsi *cache* Google Drive File Stream atau masalah sinkronisasi yang menyebabkan file *checkpoint* yang sudah saya simpan menghilang secara misterius, atau terlihat kosong di VM. Ini terjadi meskipun file-nya mungkin masih ada di *cloud*. Kondisi ini berujung pada hilangnya progres pelatihan berjam-jam dan keharusan mengulang proses dari awal.
* **Keterbatasan Sesi:** Meskipun Colab Pro+ menyediakan sesi yang lebih panjang, batasan waktu tetap ada. Jika tidak diantisipasi dengan *checkpointing* yang andal, sesi pelatihan yang terputus bisa sangat merugikan.
Pengalaman ini mendorong saya untuk mengadopsi pendekatan "multipart" untuk dataset ini dan menekankan pentingnya manajemen *resource* yang ketat serta strategi *checkpointing* yang *robust*. Semoga dengan membagi dataset ini, pengguna lain bisa lebih mudah mengelola *resource* mereka saat *fine-tuning* model mereka sendiri.
-----
## Deskripsi Dataset
Dataset ini berisi bagian-bagian *(splits)* dari korpus **Wikipedia berbahasa Indonesia**, yang diekstrak pada tanggal **1 November 2023**. Dataset asli dimuat dari koleksi `wikimedia/wikipedia` di Hugging Face Hub.
Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan *fine-tuning* model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi **14 parts** yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli.
-----
## Struktur Dataset
Dataset ini distrukturkan menjadi beberapa *individual split*, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli.
- Total Part: 14
- Nama: `Part001`, `Part002`, ..., `Part014`
- Format: Apache Arrow atau Parquet
-----
## Kolom
Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli:
- `id`: (string) ID unik dari artikel Wikipedia.
- `url`: (string) URL artikel Wikipedia.
- `title`: (string) Judul artikel Wikipedia.
- `text`: (string) Konten teks lengkap dari artikel Wikipedia.
-----
## Cara Menggunakan Dataset
Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu.
### Memuat Seluruh Dataset
Untuk memuat semua split sebagai satu dataset tunggal (akan memakan memori jika digabungkan sepenuhnya), Anda bisa melakukan ini:
```
from datasets import load_dataset
dataset = load_dataset("nxvay/wikipedia-id-splits")
print(dataset)
# Output
DatasetDict({
train: Dataset({
features: ['id', 'url', 'title', 'text'],
num_rows: 250000
})
})
```
### Memuat Split Tertentu
Jika Anda hanya ingin memuat split tertentu (misalnya, `Part002`), Anda bisa menentukannya:
```
from datasets import load_dataset
dataset_002 = load_dataset("nxvay/wikipedia-id-splits", "Part002", split="train")
dataset_002[0]
# Output
{'id': '156840',
'url': 'https://id.wikipedia.org/wiki/Penyarang%2C%20Sidareja%2C%20Cilacap',
'title': 'Penyarang, Sidareja, Cilacap',
'text': 'Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia.'}
```
### Mengakses Data
Setelah dimuat, Anda bisa mengakses data seperti dataset Hugging Face pada umumnya:
```
example = part_001_dataset[0]
print(f"Judul Artikel: {example['title']}")
print(f"Isi Teks: {example['text'][:500]}...") # Cetak 500 karakter pertama
# Outpu
Judul Artikel: Penyarang, Sidareja, Cilacap
Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia....
```
-----
## Sumber Data
Dataset ini berasal dari:
- Nama Dataset Asli: `wikimedia/wikipedia`
- Konfigurasi (Bahasa & Tanggal): `20231101.id` (Wikipedia bahasa Indonesia, snapshot 1 November 2023)
Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas.
-----
## Catatan
Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia.
Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya. |