Commit
·
47659b5
1
Parent(s):
9b075b8
Update README.md
Browse files
README.md
CHANGED
@@ -23,6 +23,8 @@ ELYZAでは下記のモデル、デモ、データを公開しています。詳
|
|
23 |
| [ELYZA-japanese-Llama-2-7b-instruct](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b-instruct) | [demo](https://huggingface.co/spaces/elyza/ELYZA-japanese-Llama-2-7b-instruct-demo) | ユーザーからの指示に従い様々なタスクを解くことを目的として、[ELYZA-japanese-Llama-2-7b](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b)に対して事後学習を行ったモデルです |
|
24 |
| [ELYZA-japanese-Llama-2-7b-fast](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b-fast) | - | [MetaのLlama-2-7b-chat](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf)に対して、日本語の語彙を追加し、約160億トークンの日本語テキストで追加事前学習を行ったモデルです。推論速度に換算すると約1.82倍高速に動作します。 |
|
25 |
| [ELYZA-japanese-Llama-2-7b-fast-instruct](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b-fast-instruct) | [demo](https://huggingface.co/spaces/elyza/ELYZA-japanese-Llama-2-7b-fast-instruct-demo) | ユーザーからの指示に従い様々なタスクを解くことを目的として、[ELYZA-japanese-Llama-2-7b-fast](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b-fast)に対して事後学習を行ったモデルです |
|
|
|
|
|
26 |
|
27 |
## 公開データセット
|
28 |
|
|
|
23 |
| [ELYZA-japanese-Llama-2-7b-instruct](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b-instruct) | [demo](https://huggingface.co/spaces/elyza/ELYZA-japanese-Llama-2-7b-instruct-demo) | ユーザーからの指示に従い様々なタスクを解くことを目的として、[ELYZA-japanese-Llama-2-7b](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b)に対して事後学習を行ったモデルです |
|
24 |
| [ELYZA-japanese-Llama-2-7b-fast](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b-fast) | - | [MetaのLlama-2-7b-chat](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf)に対して、日本語の語彙を追加し、約160億トークンの日本語テキストで追加事前学習を行ったモデルです。推論速度に換算すると約1.82倍高速に動作します。 |
|
25 |
| [ELYZA-japanese-Llama-2-7b-fast-instruct](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b-fast-instruct) | [demo](https://huggingface.co/spaces/elyza/ELYZA-japanese-Llama-2-7b-fast-instruct-demo) | ユーザーからの指示に従い様々なタスクを解くことを目的として、[ELYZA-japanese-Llama-2-7b-fast](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b-fast)に対して事後学習を行ったモデルです |
|
26 |
+
| [elyza/ELYZA-japanese-CodeLlama-7b](https://huggingface.co/elyza/ELYZA-japanese-CodeLlama-7b) | - | コード生成・補完を得意とする[CodeLlama-7b-Instruct](https://huggingface.co/codellama/CodeLlama-7b-Instruct-hf)に対して、約180億トークンの日本語テキストで追加事前学習を行ったモデルです。
|
27 |
+
| [elyza/ELYZA-japanese-CodeLlama-7b-instruct](https://huggingface.co/elyza/ELYZA-japanese-CodeLlama-7b-instruct) | [demo](https://huggingface.co/spaces/elyza/ELYZA-japanese-CodeLlama-7b-instruct-demo) | 日本語での指示に従いコード生成・補完を行うことを目的として、[ELYZA-japanese-CodeLlama-7b](https://huggingface.co/elyza/ELYZA-japanese-CodeLlama-7b)に対して事後学習を行ったモデルです
|
28 |
|
29 |
## 公開データセット
|
30 |
|