nxvay commited on
Commit
9cedaff
·
verified ·
1 Parent(s): ab1d052

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +23 -1
README.md CHANGED
@@ -75,17 +75,33 @@ configs:
75
 
76
  # Dataset: Wikipedia Indonesian (Partial Splits)
77
 
 
 
 
 
 
 
 
 
 
 
 
 
 
78
  ## Deskripsi Dataset
79
  Dataset ini berisi bagian-bagian *(splits)* dari korpus **Wikipedia berbahasa Indonesia**, yang diekstrak pada tanggal **1 November 2023**. Dataset asli dimuat dari koleksi `wikimedia/wikipedia` di Hugging Face Hub.
80
-
81
  Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan *fine-tuning* model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi **14 parts** yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli.
82
 
 
 
83
  ## Struktur Dataset
84
  Dataset ini distrukturkan menjadi beberapa *individual split*, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli.
85
  - Total Part: 14
86
  - Nama: `Part001`, `Part002`, ..., `Part014`
87
  - Format: Apache Arrow atau Parquet
88
 
 
 
89
  ## Kolom
90
  Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli:
91
  - `id`: (string) ID unik dari artikel Wikipedia.
@@ -93,6 +109,8 @@ Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset
93
  - `title`: (string) Judul artikel Wikipedia.
94
  - `text`: (string) Konten teks lengkap dari artikel Wikipedia.
95
 
 
 
96
  ## Cara Menggunakan Dataset
97
  Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu.
98
 
@@ -141,6 +159,8 @@ Judul Artikel: Penyarang, Sidareja, Cilacap
141
  Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia....
142
  ```
143
 
 
 
144
  ## Sumber Data
145
  Dataset ini berasal dari:
146
  - Nama Dataset Asli: `wikimedia/wikipedia`
@@ -148,6 +168,8 @@ Dataset ini berasal dari:
148
 
149
  Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas.
150
 
 
 
151
  ## Catatan
152
  Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia.
153
  Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya.
 
75
 
76
  # Dataset: Wikipedia Indonesian (Partial Splits)
77
 
78
+ ## Motivasi
79
+
80
+ Mengembangkan dan mempersiapkan dataset ini untuk *fine-tuning* bukanlah hal yang mudah, terutama dengan keterbatasan *resource* yang saya alami. Meski saya sudah berlangganan **Colab Pro+** yang menjanjikan akses ke GPU berperforma tinggi (seperti A100 atau H100) dan *resource* lebih besar, ada beberapa tantangan signifikan yang muncul:
81
+
82
+ * **Pembatasan Disk Space Colab VM:** Saya sering menghadapi masalah "No space left on device" pada disk lokal Colab VM. Ini terjadi bahkan saat saya sudah mengelola file *checkpoint* dan *cache* Google Drive dengan sangat cermat.
83
+ * **Keterbatasan Ruang Google Drive yang Terhubung:** Saya memiliki akun Google Drive *unlimited* terpisah, namun sayangnya **tidak bisa memanfaatkan ruang Drive tersebut secara langsung dengan akun Google Colab yang saya gunakan untuk pelatihan.** Hal ini berarti saya terikat pada batas penyimpanan Google Drive standar yang terhubung dengan akun Colab utama saya, sangat membatasi kapasitas untuk menyimpan *checkpoint* besar atau data mentah secara aman.
84
+ * **Masalah Sinkronisasi Google Drive:** Terkadang, terjadi korupsi *cache* Google Drive File Stream atau masalah sinkronisasi yang menyebabkan file *checkpoint* yang sudah saya simpan menghilang secara misterius, atau terlihat kosong di VM. Ini terjadi meskipun file-nya mungkin masih ada di *cloud*. Kondisi ini berujung pada hilangnya progres pelatihan berjam-jam dan keharusan mengulang proses dari awal.
85
+ * **Keterbatasan Sesi:** Meskipun Colab Pro+ menyediakan sesi yang lebih panjang, batasan waktu tetap ada. Jika tidak diantisipasi dengan *checkpointing* yang andal, sesi pelatihan yang terputus bisa sangat merugikan.
86
+
87
+ Pengalaman ini mendorong saya untuk mengadopsi pendekatan "multipart" untuk dataset ini dan menekankan pentingnya manajemen *resource* yang ketat serta strategi *checkpointing* yang *robust*. Semoga dengan membagi dataset ini, pengguna lain bisa lebih mudah mengelola *resource* mereka saat *fine-tuning* model mereka sendiri.
88
+
89
+ -----
90
+
91
  ## Deskripsi Dataset
92
  Dataset ini berisi bagian-bagian *(splits)* dari korpus **Wikipedia berbahasa Indonesia**, yang diekstrak pada tanggal **1 November 2023**. Dataset asli dimuat dari koleksi `wikimedia/wikipedia` di Hugging Face Hub.
 
93
  Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan *fine-tuning* model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi **14 parts** yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli.
94
 
95
+ -----
96
+
97
  ## Struktur Dataset
98
  Dataset ini distrukturkan menjadi beberapa *individual split*, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli.
99
  - Total Part: 14
100
  - Nama: `Part001`, `Part002`, ..., `Part014`
101
  - Format: Apache Arrow atau Parquet
102
 
103
+ -----
104
+
105
  ## Kolom
106
  Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli:
107
  - `id`: (string) ID unik dari artikel Wikipedia.
 
109
  - `title`: (string) Judul artikel Wikipedia.
110
  - `text`: (string) Konten teks lengkap dari artikel Wikipedia.
111
 
112
+ -----
113
+
114
  ## Cara Menggunakan Dataset
115
  Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu.
116
 
 
159
  Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia....
160
  ```
161
 
162
+ -----
163
+
164
  ## Sumber Data
165
  Dataset ini berasal dari:
166
  - Nama Dataset Asli: `wikimedia/wikipedia`
 
168
 
169
  Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas.
170
 
171
+ -----
172
+
173
  ## Catatan
174
  Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia.
175
  Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya.