junya-takayama
commited on
Commit
•
8a7139c
1
Parent(s):
231f376
Add `<|eot_id|>` token (id: 128009) to `eos_token_id`
Browse filesFor ease of use, I propose adding the `<|eot_id|>` token (ID: 128009) to the `eos_token_id` in the `generation_config.json` file.
Usage によると、 Instruction モデルではデフォルトの EOS トークン以外に `<|eot_id|>` (id: 128009) でも止めるような設定で生成するように指定されているかと思います。
```
sampling_params = SamplingParams(
temperature=0.6, top_p=0.9, max_tokens=512, stop="<|eot_id|>"
)
```
[meta-llama/Meta-Llama-3-8B-Instruct](https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct/blob/main/generation_config.json) と同様、128009 を generation_conifg.json の `eos_token_id` に追加するとデフォルトで `<|eot_id|>` で生成処理が止まるようになって便利そうですが、いかがでしょうか?
VLLM でも現在は generation_config.json の `eos_token_id` を読み出せる仕様になっているようですので、実行時に `stop="<|eot_id|>"` を指定する必要がなくなります。
https://github.com/vllm-project/vllm/pull/4182
- generation_config.json +1 -1
generation_config.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1 |
{
|
2 |
"_from_model_config": true,
|
3 |
"bos_token_id": 128000,
|
4 |
-
"eos_token_id": 128001,
|
5 |
"transformers_version": "4.40.1"
|
6 |
}
|
|
|
1 |
{
|
2 |
"_from_model_config": true,
|
3 |
"bos_token_id": 128000,
|
4 |
+
"eos_token_id": [128001, 128009],
|
5 |
"transformers_version": "4.40.1"
|
6 |
}
|