{ "tokenizer_class": "LlamaTokenizer", "model_max_length": 256, "pad_token": "", "bos_token": "", "eos_token": "", "unk_token": "", "clean_up_tokenization_spaces": false, "auto_map": { "AutoTokenizer": [ "sentencepiece", "LlamaTokenizer" ] } }