Mathlesage commited on
Commit
f92832b
·
verified ·
1 Parent(s): 1addcbb

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +60 -21
README.md CHANGED
@@ -1,23 +1,62 @@
1
  ---
2
- dataset_info:
3
- features:
4
- - name: id
5
- dtype: int64
6
- - name: title
7
- dtype: string
8
- - name: text
9
- dtype: string
10
- - name: linked_titles
11
- sequence: string
12
- splits:
13
- - name: train
14
- num_bytes: 10038534095
15
- num_examples: 2027279
16
- download_size: 5767756697
17
- dataset_size: 10038534095
18
- configs:
19
- - config_name: default
20
- data_files:
21
- - split: train
22
- path: data/train-*
23
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ language: fr
3
+ license: cc-by-sa-3.0
4
+ tags:
5
+ - wikipedia
6
+ - corpus-de-texte
7
+ - non-supervise
8
+ pretty_name: "Corpus Wikipédia FR (20 avril 2025)"
9
+ size_categories:
10
+ - +1B
 
 
 
 
 
 
 
 
 
 
 
 
11
  ---
12
+
13
+ # Corpus Wikipédia FR - Snapshot du 20 avril 2025
14
+
15
+ ## Description du Dataset
16
+
17
+ Ce dataset contient un snapshot complet de l'encyclopédie Wikipédia en langue française, tel qu'il existait à la date du **20 avril 2025**. Il inclut la dernière version de chaque page, avec son contenu textuel brut, les titres des pages liées, ainsi qu'un identifiant unique.
18
+
19
+ Le texte de chaque article conserve la structure de formatage MediaWiki pour les titres (`== Titre de section ==`), les sous-titres (`=== Sous-titre ===`), et ainsi de suite. Cela le rend particulièrement utile pour les tâches qui peuvent bénéficier de la structure hiérarchique du document.
20
+
21
+ Ce corpus est idéal pour l'entraînement de modèles de langue, les tâches de recherche d'information (information retrieval), de question-réponse (question-answering), et toute autre recherche en traitement du langage naturel (NLP) nécessitant une grande quantité de texte encyclopédique structuré.
22
+
23
+ ## Structure du Dataset
24
+
25
+ ### Champs de données (Data Fields)
26
+
27
+ Le dataset est composé des colonnes suivantes :
28
+
29
+ * `id` (string) : Un identifiant unique pour chaque article (par exemple, l'ID de la page sur Wikipédia).
30
+ * `title` (string) : Le titre de l'article Wikipédia.
31
+ * `text` (string) : Le contenu textuel complet de l'article. La structure des sections est préservée avec la syntaxe `==`, `===`, `====`, etc.
32
+ * `linked_titles` (list of strings) : Une liste contenant les titres des autres articles Wikipédia qui sont liés depuis le champ `text`.
33
+
34
+ ### Splits de Données (Data Splits)
35
+
36
+ Le dataset ne contient qu'un seul split : `train`, qui comprend l'ensemble des articles du dump.
37
+
38
+ ## Utilisation
39
+
40
+ Vous pouvez charger et utiliser ce dataset facilement avec la bibliothèque `datasets` de Hugging Face.
41
+
42
+
43
+ ```python
44
+ from datasets import load_dataset
45
+
46
+ # Charger le dataset
47
+ dataset = load_dataset("OrdalieTech/wiki_fr")
48
+
49
+ # Afficher les informations sur le dataset
50
+ print(dataset)
51
+ # >>> DatasetDict({
52
+ # >>> train: Dataset({
53
+ # >>> features: ['id', 'title', 'text', 'linked_titles'],
54
+ # >>> num_rows: 2700000 # Exemple
55
+ # >>> })
56
+ # >>> })
57
+
58
+ # Accéder à un exemple
59
+ premier_article = dataset['train'][0]
60
+ print("Titre:", premier_article['title'])
61
+ print("\nExtrait du texte:", premier_article['text'][:500])
62
+ print("\nTitres liés:", premier_article['linked_titles'][:5])