--- license: apache-2.0 language: - nl library_name: transformers --- [Pieter Delobelle](https://pieter.ai), [François Remy](https://fremycompany.com), [Miryam de Lhoneux](https://people.cs.kuleuven.be/~miryam.delhoneux/), [Thomas Demeester](https://tdmeeste.github.io)

Tweety-7b-dutch: Een Nederlands Groot Taalmodel

# Modelkaart voor tweety-7b-dutch tweety-7b-dutch is een Nederlands taalmodel, waarin een [Nederlandse tokenizer](https://huggingface.co/yhavinga/gpt-neo-1.3B-dutch) is geïntegreerd voor betere representaties en generatie van Nederlandse tekst. Het is gebouwd op de Mistral-architectuur, maakt gebruik van flash attention en met een _context window_ van 8192 tokens. Tweety-7b-dutch is getraind op de [opgeschoonde Nederlandse mC4 dataset](https://huggingface.co/datasets/yhavinga/mc4_nl_cleaned), zonder instructie-finetuning. ## Modeldetails ### Modelbeschrijving Ons tweety-7b-dutch model heeft een Apache 2.0 licentie, wat toepassingen aanmoedigt in onderzoek, contentcreatie en taalanalyse. - **Tokenizer:** Nederlands, 50k tokens ([yhavinga/gpt-neo-1.3B-dutch](https://huggingface.co/yhavinga/gpt-neo-1.3B-dutch)) - **Pre-training data:** Verzamelde Nederlandse teksten ([yhavinga/mc4_nl_cleaned](https://huggingface.co/datasets/yhavinga/mc4_nl_cleaned)) - **Contextvenster**: 8196 tokens - **Trainingsdata**: 8,5 miljard tokens - **Ontwikkeld door:** KU Leuven en UGent - **Gefinancierd door:** KU Leuven BOF, VSC (Vlaams Supercomputer Centrum), [Vlaams AI-onderzoeksprogramma](https://www.flandersairesearch.be/nl) - **Modeltype:** Foundationmodel - **Licentie:** Apache 2.0 ## Toepassingen Als basismodel is tweety-7b-dutch geschikt voor directe toepassingen in tekstgeneratie en -begrip binnen de Nederlandse taal. ## Technische specificaties ### Computerinfrastructuur De training maakte gebruik van Nvidia H100 en A100 GPU's. Inferentie is toegankelijk op minder krachtige GPU's, in principe elke GPU die in staat is om mistral-modellen te draaien. ### Modelgewichten - Dit model werd getraind in bfloat16. - [GGUF-gewichten](https://huggingface.co/BramVanroy/tweety-7b-dutch-v24a-GGUF) worden uitgebracht door Bram Vanroy. ## Citatie Als je dit model gebruikt, citeer dan ons werk als volgt: ``` @article{tweeties2024, title = {Trans-Tokenization and Cross-lingual Vocabulary Transfers: Language Adaptation of LLMs for Low-Resource NLP}, author = {François Remy and Pieter Delobelle and Hayastan Avetisyan and Alfiya Khabibullina and Miryam de Lhoneux and Thomas Demeester}, url = {https://arxiv.org/abs/2408.04303}, year = {2024}, note = {Accepted at COLM 2024} } ```