{ "tokenizer_class": "PreTrainedTokenizerFast", "model_type": "gpt2", "bos_token": "", "eos_token": "", "unk_token": "", "pad_token": "", "vocab_size": 65536 }