File size: 6,692 Bytes
2ba14f6
 
 
85079b8
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2ba14f6
 
 
 
9cedaff
 
 
 
 
 
 
 
 
 
 
 
 
2ba14f6
 
 
 
9cedaff
 
2ba14f6
 
 
c074907
2ba14f6
 
9cedaff
 
2ba14f6
 
 
 
 
 
 
9cedaff
 
2ba14f6
 
 
 
 
 
 
 
 
 
85079b8
 
 
 
 
 
 
 
2ba14f6
 
 
c074907
2ba14f6
 
 
c074907
 
 
 
 
 
 
 
2ba14f6
 
 
 
 
 
c074907
2ba14f6
 
c074907
 
 
 
2ba14f6
 
9cedaff
 
2ba14f6
 
 
 
 
 
 
9cedaff
 
2ba14f6
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
---
language:
- id
license:
- cc-by-sa-3.0
- gfdl
size_categories:
- n<1K
- 1K<n<10K
- 10K<n<100K
task_categories:
- text-generation
- fill-mask
task_ids:
- language-modeling
- masked-language-modeling
configs:
- config_name: Part001
  data_files:
  - split: train
    path: Part001/train-*
- config_name: Part002
  data_files:
  - split: train
    path: Part002/train-*
- config_name: Part003
  data_files:
  - split: train
    path: Part003/train-*
- config_name: Part004
  data_files:
  - split: train
    path: Part004/train-*
- config_name: Part005
  data_files:
  - split: train
    path: Part005/train-*
- config_name: Part006
  data_files:
  - split: train
    path: Part006/train-*
- config_name: Part007
  data_files:
  - split: train
    path: Part007/train-*
- config_name: Part008
  data_files:
  - split: train
    path: Part008/train-*
- config_name: Part009
  data_files:
  - split: train
    path: Part009/train-*
- config_name: Part010
  data_files:
  - split: train
    path: Part010/train-*
- config_name: Part011
  data_files:
  - split: train
    path: Part011/train-*
- config_name: Part012
  data_files:
  - split: train
    path: Part012/train-*
- config_name: Part013
  data_files:
  - split: train
    path: Part013/train-*
- config_name: Part014
  data_files:
  - split: train
    path: Part014/train-*
---

# Dataset: Wikipedia Indonesian (Partial Splits)

## Motivasi

Mengembangkan dan mempersiapkan dataset ini untuk *fine-tuning* bukanlah hal yang mudah, terutama dengan keterbatasan *resource* yang saya alami. Meski saya sudah berlangganan **Colab Pro+** yang menjanjikan akses ke GPU berperforma tinggi (seperti A100 atau H100) dan *resource* lebih besar, ada beberapa tantangan signifikan yang muncul:

  * **Pembatasan Disk Space Colab VM:** Saya sering menghadapi masalah "No space left on device" pada disk lokal Colab VM. Ini terjadi bahkan saat saya sudah mengelola file *checkpoint* dan *cache* Google Drive dengan sangat cermat.
  * **Keterbatasan Ruang Google Drive yang Terhubung:** Saya memiliki akun Google Drive *unlimited* terpisah, namun sayangnya **tidak bisa memanfaatkan ruang Drive tersebut secara langsung dengan akun Google Colab yang saya gunakan untuk pelatihan.** Hal ini berarti saya terikat pada batas penyimpanan Google Drive standar yang terhubung dengan akun Colab utama saya, sangat membatasi kapasitas untuk menyimpan *checkpoint* besar atau data mentah secara aman.
  * **Masalah Sinkronisasi Google Drive:** Terkadang, terjadi korupsi *cache* Google Drive File Stream atau masalah sinkronisasi yang menyebabkan file *checkpoint* yang sudah saya simpan menghilang secara misterius, atau terlihat kosong di VM. Ini terjadi meskipun file-nya mungkin masih ada di *cloud*. Kondisi ini berujung pada hilangnya progres pelatihan berjam-jam dan keharusan mengulang proses dari awal.
  * **Keterbatasan Sesi:** Meskipun Colab Pro+ menyediakan sesi yang lebih panjang, batasan waktu tetap ada. Jika tidak diantisipasi dengan *checkpointing* yang andal, sesi pelatihan yang terputus bisa sangat merugikan.

Pengalaman ini mendorong saya untuk mengadopsi pendekatan "multipart" untuk dataset ini dan menekankan pentingnya manajemen *resource* yang ketat serta strategi *checkpointing* yang *robust*. Semoga dengan membagi dataset ini, pengguna lain bisa lebih mudah mengelola *resource* mereka saat *fine-tuning* model mereka sendiri.

-----

## Deskripsi Dataset
Dataset ini berisi bagian-bagian *(splits)* dari korpus **Wikipedia berbahasa Indonesia**, yang diekstrak pada tanggal **1 November 2023**. Dataset asli dimuat dari koleksi `wikimedia/wikipedia` di Hugging Face Hub.
Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan *fine-tuning* model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi **14 parts** yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli.

-----

## Struktur Dataset
Dataset ini distrukturkan menjadi beberapa *individual split*, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli.
- Total Part: 14
- Nama: `Part001`, `Part002`, ..., `Part014`
- Format: Apache Arrow atau Parquet

-----

## Kolom
Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli:
- `id`: (string) ID unik dari artikel Wikipedia.
- `url`: (string) URL artikel Wikipedia.
- `title`: (string) Judul artikel Wikipedia.
- `text`: (string) Konten teks lengkap dari artikel Wikipedia.

-----

## Cara Menggunakan Dataset
Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu.

### Memuat Seluruh Dataset
Untuk memuat semua split sebagai satu dataset tunggal (akan memakan memori jika digabungkan sepenuhnya), Anda bisa melakukan ini:
```
from datasets import load_dataset

dataset = load_dataset("nxvay/wikipedia-id-splits")
print(dataset)

# Output
DatasetDict({
    train: Dataset({
        features: ['id', 'url', 'title', 'text'],
        num_rows: 250000
    })
})
```

### Memuat Split Tertentu
Jika Anda hanya ingin memuat split tertentu (misalnya, `Part002`), Anda bisa menentukannya:
```
from datasets import load_dataset

dataset_002 = load_dataset("nxvay/wikipedia-id-splits", "Part002", split="train")
dataset_002[0]

# Output
{'id': '156840',
 'url': 'https://id.wikipedia.org/wiki/Penyarang%2C%20Sidareja%2C%20Cilacap',
 'title': 'Penyarang, Sidareja, Cilacap',
 'text': 'Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia.'}
```

### Mengakses Data
Setelah dimuat, Anda bisa mengakses data seperti dataset Hugging Face pada umumnya:
```
example = part_001_dataset[0]

print(f"Judul Artikel: {example['title']}")
print(f"Isi Teks: {example['text'][:500]}...") # Cetak 500 karakter pertama

# Outpu
Judul Artikel: Penyarang, Sidareja, Cilacap
Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia....
```

-----

## Sumber Data
Dataset ini berasal dari:
- Nama Dataset Asli: `wikimedia/wikipedia`
- Konfigurasi (Bahasa & Tanggal): `20231101.id` (Wikipedia bahasa Indonesia, snapshot 1 November 2023)

Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas.

-----

## Catatan
Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia.
Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya.