wikipedia-id-splits / README.md
nxvay's picture
Update README.md
9cedaff verified
metadata
language:
  - id
license:
  - cc-by-sa-3.0
  - gfdl
size_categories:
  - n<1K
  - 1K<n<10K
  - 10K<n<100K
task_categories:
  - text-generation
  - fill-mask
task_ids:
  - language-modeling
  - masked-language-modeling
configs:
  - config_name: Part001
    data_files:
      - split: train
        path: Part001/train-*
  - config_name: Part002
    data_files:
      - split: train
        path: Part002/train-*
  - config_name: Part003
    data_files:
      - split: train
        path: Part003/train-*
  - config_name: Part004
    data_files:
      - split: train
        path: Part004/train-*
  - config_name: Part005
    data_files:
      - split: train
        path: Part005/train-*
  - config_name: Part006
    data_files:
      - split: train
        path: Part006/train-*
  - config_name: Part007
    data_files:
      - split: train
        path: Part007/train-*
  - config_name: Part008
    data_files:
      - split: train
        path: Part008/train-*
  - config_name: Part009
    data_files:
      - split: train
        path: Part009/train-*
  - config_name: Part010
    data_files:
      - split: train
        path: Part010/train-*
  - config_name: Part011
    data_files:
      - split: train
        path: Part011/train-*
  - config_name: Part012
    data_files:
      - split: train
        path: Part012/train-*
  - config_name: Part013
    data_files:
      - split: train
        path: Part013/train-*
  - config_name: Part014
    data_files:
      - split: train
        path: Part014/train-*

Dataset: Wikipedia Indonesian (Partial Splits)

Motivasi

Mengembangkan dan mempersiapkan dataset ini untuk fine-tuning bukanlah hal yang mudah, terutama dengan keterbatasan resource yang saya alami. Meski saya sudah berlangganan Colab Pro+ yang menjanjikan akses ke GPU berperforma tinggi (seperti A100 atau H100) dan resource lebih besar, ada beberapa tantangan signifikan yang muncul:

  • Pembatasan Disk Space Colab VM: Saya sering menghadapi masalah "No space left on device" pada disk lokal Colab VM. Ini terjadi bahkan saat saya sudah mengelola file checkpoint dan cache Google Drive dengan sangat cermat.
  • Keterbatasan Ruang Google Drive yang Terhubung: Saya memiliki akun Google Drive unlimited terpisah, namun sayangnya tidak bisa memanfaatkan ruang Drive tersebut secara langsung dengan akun Google Colab yang saya gunakan untuk pelatihan. Hal ini berarti saya terikat pada batas penyimpanan Google Drive standar yang terhubung dengan akun Colab utama saya, sangat membatasi kapasitas untuk menyimpan checkpoint besar atau data mentah secara aman.
  • Masalah Sinkronisasi Google Drive: Terkadang, terjadi korupsi cache Google Drive File Stream atau masalah sinkronisasi yang menyebabkan file checkpoint yang sudah saya simpan menghilang secara misterius, atau terlihat kosong di VM. Ini terjadi meskipun file-nya mungkin masih ada di cloud. Kondisi ini berujung pada hilangnya progres pelatihan berjam-jam dan keharusan mengulang proses dari awal.
  • Keterbatasan Sesi: Meskipun Colab Pro+ menyediakan sesi yang lebih panjang, batasan waktu tetap ada. Jika tidak diantisipasi dengan checkpointing yang andal, sesi pelatihan yang terputus bisa sangat merugikan.

Pengalaman ini mendorong saya untuk mengadopsi pendekatan "multipart" untuk dataset ini dan menekankan pentingnya manajemen resource yang ketat serta strategi checkpointing yang robust. Semoga dengan membagi dataset ini, pengguna lain bisa lebih mudah mengelola resource mereka saat fine-tuning model mereka sendiri.


Deskripsi Dataset

Dataset ini berisi bagian-bagian (splits) dari korpus Wikipedia berbahasa Indonesia, yang diekstrak pada tanggal 1 November 2023. Dataset asli dimuat dari koleksi wikimedia/wikipedia di Hugging Face Hub. Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan fine-tuning model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi 14 parts yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli.


Struktur Dataset

Dataset ini distrukturkan menjadi beberapa individual split, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli.

  • Total Part: 14
  • Nama: Part001, Part002, ..., Part014
  • Format: Apache Arrow atau Parquet

Kolom

Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli:

  • id: (string) ID unik dari artikel Wikipedia.
  • url: (string) URL artikel Wikipedia.
  • title: (string) Judul artikel Wikipedia.
  • text: (string) Konten teks lengkap dari artikel Wikipedia.

Cara Menggunakan Dataset

Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu.

Memuat Seluruh Dataset

Untuk memuat semua split sebagai satu dataset tunggal (akan memakan memori jika digabungkan sepenuhnya), Anda bisa melakukan ini:

from datasets import load_dataset

dataset = load_dataset("nxvay/wikipedia-id-splits")
print(dataset)

# Output
DatasetDict({
    train: Dataset({
        features: ['id', 'url', 'title', 'text'],
        num_rows: 250000
    })
})

Memuat Split Tertentu

Jika Anda hanya ingin memuat split tertentu (misalnya, Part002), Anda bisa menentukannya:

from datasets import load_dataset

dataset_002 = load_dataset("nxvay/wikipedia-id-splits", "Part002", split="train")
dataset_002[0]

# Output
{'id': '156840',
 'url': 'https://id.wikipedia.org/wiki/Penyarang%2C%20Sidareja%2C%20Cilacap',
 'title': 'Penyarang, Sidareja, Cilacap',
 'text': 'Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia.'}

Mengakses Data

Setelah dimuat, Anda bisa mengakses data seperti dataset Hugging Face pada umumnya:

example = part_001_dataset[0]

print(f"Judul Artikel: {example['title']}")
print(f"Isi Teks: {example['text'][:500]}...") # Cetak 500 karakter pertama

# Outpu
Judul Artikel: Penyarang, Sidareja, Cilacap
Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia....

Sumber Data

Dataset ini berasal dari:

  • Nama Dataset Asli: wikimedia/wikipedia
  • Konfigurasi (Bahasa & Tanggal): 20231101.id (Wikipedia bahasa Indonesia, snapshot 1 November 2023)

Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas.


Catatan

Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia. Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya.