pdelobelle commited on
Commit
362ee4c
·
verified ·
1 Parent(s): 6a08784

Create README_nl.md

Browse files
Files changed (1) hide show
  1. README_nl.md +60 -0
README_nl.md ADDED
@@ -0,0 +1,60 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ ---
3
+ license: apache-2.0
4
+ language:
5
+ - nl
6
+ library_name: transformers
7
+ ---
8
+ [Pieter Delobelle](https://pieter.ai), [François Remy](https://fremycompany.com), [Miryam de Lhoneux](https://people.cs.kuleuven.be/~miryam.delhoneux/), [Thomas Demeester](https://tdmeeste.github.io)
9
+
10
+ <p align="center">
11
+ <img src="https://huggingface.co/DTAI-KULeuven/tweety-7b-dutch/resolve/main/tweety-7b-dutch.png?download=true" alt="Tweety-7b-dutch: Een Nederlands Groot Taalmodel" width="20%">
12
+ </p>
13
+
14
+ # Modelkaart voor tweety-7b-dutch
15
+
16
+ tweety-7b-dutch is een Nederlands taalmodel, waarin een [Nederlandse tokenizer](https://huggingface.co/yhavinga/gpt-neo-1.3B-dutch) is geïntegreerd voor betere representaties en generatie van Nederlandse tekst. Het is gebouwd op de Mistral-architectuur, maakt gebruik van flash attention en met een _context window_ van 8192 tokens. Tweety-7b-dutch is getraind op de [opgeschoonde Nederlandse mC4 dataset](https://huggingface.co/datasets/yhavinga/mc4_nl_cleaned), zonder instructie-finetuning.
17
+
18
+ ## Modeldetails
19
+
20
+ ### Modelbeschrijving
21
+
22
+ Ons tweety-7b-dutch model heeft een Apache 2.0 licentie, wat toepassingen aanmoedigt in onderzoek, contentcreatie en taalanalyse.
23
+
24
+ - **Tokenizer:** Nederlands, 50k tokens ([yhavinga/gpt-neo-1.3B-dutch](https://huggingface.co/yhavinga/gpt-neo-1.3B-dutch))
25
+ - **Pre-training data:** Verzamelde Nederlandse teksten ([yhavinga/mc4_nl_cleaned](https://huggingface.co/datasets/yhavinga/mc4_nl_cleaned))
26
+ - **Contextvenster**: 8196 tokens
27
+ - **Trainingsdata**: 8,5 miljard tokens
28
+ - **Ontwikkeld door:** KU Leuven en UGent
29
+ - **Gefinancierd door:** KU Leuven BOF, VSC (Vlaams Supercomputer Centrum), [Vlaams AI-onderzoeksprogramma](https://www.flandersairesearch.be/nl)
30
+ - **Modeltype:** Foundationmodel
31
+ - **Licentie:** Apache 2.0
32
+
33
+ ## Toepassingen
34
+
35
+ Als basismodel is tweety-7b-dutch geschikt voor directe toepassingen in tekstgeneratie en -begrip binnen de Nederlandse taal.
36
+
37
+ ## Technische specificaties
38
+
39
+ ### Computerinfrastructuur
40
+ De training maakte gebruik van Nvidia H100 en A100 GPU's. Inferentie is toegankelijk op minder krachtige GPU's, in principe elke GPU die in staat is om mistral-modellen te draaien.
41
+
42
+ ### Modelgewichten
43
+
44
+ - Dit model werd getraind in bfloat16.
45
+ - [GGUF-gewichten](https://huggingface.co/BramVanroy/tweety-7b-dutch-v24a-GGUF) worden uitgebracht door Bram Vanroy.
46
+
47
+
48
+ ## Citatie
49
+
50
+ Als je dit model gebruikt, citeer dan ons werk als volgt:
51
+
52
+ ```
53
+ @article{tweeties2024,
54
+ title = {Trans-Tokenization and Cross-lingual Vocabulary Transfers: Language Adaptation of LLMs for Low-Resource NLP},
55
+ author = {François Remy and Pieter Delobelle and Hayastan Avetisyan and Alfiya Khabibullina and Miryam de Lhoneux and Thomas Demeester},
56
+ url = {https://arxiv.org/abs/2408.04303},
57
+ year = {2024},
58
+ note = {Accepted at COLM 2024}
59
+ }
60
+ ```