Datasets:
Update README.md
Browse files
README.md
CHANGED
@@ -75,17 +75,33 @@ configs:
|
|
75 |
|
76 |
# Dataset: Wikipedia Indonesian (Partial Splits)
|
77 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
78 |
## Deskripsi Dataset
|
79 |
Dataset ini berisi bagian-bagian *(splits)* dari korpus **Wikipedia berbahasa Indonesia**, yang diekstrak pada tanggal **1 November 2023**. Dataset asli dimuat dari koleksi `wikimedia/wikipedia` di Hugging Face Hub.
|
80 |
-
|
81 |
Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan *fine-tuning* model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi **14 parts** yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli.
|
82 |
|
|
|
|
|
83 |
## Struktur Dataset
|
84 |
Dataset ini distrukturkan menjadi beberapa *individual split*, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli.
|
85 |
- Total Part: 14
|
86 |
- Nama: `Part001`, `Part002`, ..., `Part014`
|
87 |
- Format: Apache Arrow atau Parquet
|
88 |
|
|
|
|
|
89 |
## Kolom
|
90 |
Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli:
|
91 |
- `id`: (string) ID unik dari artikel Wikipedia.
|
@@ -93,6 +109,8 @@ Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset
|
|
93 |
- `title`: (string) Judul artikel Wikipedia.
|
94 |
- `text`: (string) Konten teks lengkap dari artikel Wikipedia.
|
95 |
|
|
|
|
|
96 |
## Cara Menggunakan Dataset
|
97 |
Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu.
|
98 |
|
@@ -141,6 +159,8 @@ Judul Artikel: Penyarang, Sidareja, Cilacap
|
|
141 |
Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia....
|
142 |
```
|
143 |
|
|
|
|
|
144 |
## Sumber Data
|
145 |
Dataset ini berasal dari:
|
146 |
- Nama Dataset Asli: `wikimedia/wikipedia`
|
@@ -148,6 +168,8 @@ Dataset ini berasal dari:
|
|
148 |
|
149 |
Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas.
|
150 |
|
|
|
|
|
151 |
## Catatan
|
152 |
Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia.
|
153 |
Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya.
|
|
|
75 |
|
76 |
# Dataset: Wikipedia Indonesian (Partial Splits)
|
77 |
|
78 |
+
## Motivasi
|
79 |
+
|
80 |
+
Mengembangkan dan mempersiapkan dataset ini untuk *fine-tuning* bukanlah hal yang mudah, terutama dengan keterbatasan *resource* yang saya alami. Meski saya sudah berlangganan **Colab Pro+** yang menjanjikan akses ke GPU berperforma tinggi (seperti A100 atau H100) dan *resource* lebih besar, ada beberapa tantangan signifikan yang muncul:
|
81 |
+
|
82 |
+
* **Pembatasan Disk Space Colab VM:** Saya sering menghadapi masalah "No space left on device" pada disk lokal Colab VM. Ini terjadi bahkan saat saya sudah mengelola file *checkpoint* dan *cache* Google Drive dengan sangat cermat.
|
83 |
+
* **Keterbatasan Ruang Google Drive yang Terhubung:** Saya memiliki akun Google Drive *unlimited* terpisah, namun sayangnya **tidak bisa memanfaatkan ruang Drive tersebut secara langsung dengan akun Google Colab yang saya gunakan untuk pelatihan.** Hal ini berarti saya terikat pada batas penyimpanan Google Drive standar yang terhubung dengan akun Colab utama saya, sangat membatasi kapasitas untuk menyimpan *checkpoint* besar atau data mentah secara aman.
|
84 |
+
* **Masalah Sinkronisasi Google Drive:** Terkadang, terjadi korupsi *cache* Google Drive File Stream atau masalah sinkronisasi yang menyebabkan file *checkpoint* yang sudah saya simpan menghilang secara misterius, atau terlihat kosong di VM. Ini terjadi meskipun file-nya mungkin masih ada di *cloud*. Kondisi ini berujung pada hilangnya progres pelatihan berjam-jam dan keharusan mengulang proses dari awal.
|
85 |
+
* **Keterbatasan Sesi:** Meskipun Colab Pro+ menyediakan sesi yang lebih panjang, batasan waktu tetap ada. Jika tidak diantisipasi dengan *checkpointing* yang andal, sesi pelatihan yang terputus bisa sangat merugikan.
|
86 |
+
|
87 |
+
Pengalaman ini mendorong saya untuk mengadopsi pendekatan "multipart" untuk dataset ini dan menekankan pentingnya manajemen *resource* yang ketat serta strategi *checkpointing* yang *robust*. Semoga dengan membagi dataset ini, pengguna lain bisa lebih mudah mengelola *resource* mereka saat *fine-tuning* model mereka sendiri.
|
88 |
+
|
89 |
+
-----
|
90 |
+
|
91 |
## Deskripsi Dataset
|
92 |
Dataset ini berisi bagian-bagian *(splits)* dari korpus **Wikipedia berbahasa Indonesia**, yang diekstrak pada tanggal **1 November 2023**. Dataset asli dimuat dari koleksi `wikimedia/wikipedia` di Hugging Face Hub.
|
|
|
93 |
Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan *fine-tuning* model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi **14 parts** yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli.
|
94 |
|
95 |
+
-----
|
96 |
+
|
97 |
## Struktur Dataset
|
98 |
Dataset ini distrukturkan menjadi beberapa *individual split*, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli.
|
99 |
- Total Part: 14
|
100 |
- Nama: `Part001`, `Part002`, ..., `Part014`
|
101 |
- Format: Apache Arrow atau Parquet
|
102 |
|
103 |
+
-----
|
104 |
+
|
105 |
## Kolom
|
106 |
Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli:
|
107 |
- `id`: (string) ID unik dari artikel Wikipedia.
|
|
|
109 |
- `title`: (string) Judul artikel Wikipedia.
|
110 |
- `text`: (string) Konten teks lengkap dari artikel Wikipedia.
|
111 |
|
112 |
+
-----
|
113 |
+
|
114 |
## Cara Menggunakan Dataset
|
115 |
Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu.
|
116 |
|
|
|
159 |
Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia....
|
160 |
```
|
161 |
|
162 |
+
-----
|
163 |
+
|
164 |
## Sumber Data
|
165 |
Dataset ini berasal dari:
|
166 |
- Nama Dataset Asli: `wikimedia/wikipedia`
|
|
|
168 |
|
169 |
Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas.
|
170 |
|
171 |
+
-----
|
172 |
+
|
173 |
## Catatan
|
174 |
Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia.
|
175 |
Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya.
|