Commit
·
81efab8
1
Parent(s):
b90ef8e
Update README.md
Browse files
README.md
CHANGED
|
@@ -33,6 +33,8 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
| 33 |
|学習時間(s)|585.0|399.7|-|
|
| 34 |
|推論時間(s)|259.0|108.7|70.5|
|
| 35 |
|精度|86.4%|85.5%|86.4%|
|
|
|
|
|
|
|
| 36 |
- 条件
|
| 37 |
- ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
|
| 38 |
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|
|
@@ -48,6 +50,8 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
| 48 |
|学習時間(s)|428.0|294.0|-|
|
| 49 |
|推論時間(s)|163.5|78.4|40.9|
|
| 50 |
|精度|86.4%|82.5%|83.3%|
|
|
|
|
|
|
|
| 51 |
- 条件
|
| 52 |
- ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
|
| 53 |
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|
|
|
|
| 33 |
|学習時間(s)|585.0|399.7|-|
|
| 34 |
|推論時間(s)|259.0|108.7|70.5|
|
| 35 |
|精度|86.4%|85.5%|86.4%|
|
| 36 |
+
|モデルファイルサイズ(MB)|440.2|-|41.8|
|
| 37 |
+
|
| 38 |
- 条件
|
| 39 |
- ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
|
| 40 |
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|
|
|
|
| 50 |
|学習時間(s)|428.0|294.0|-|
|
| 51 |
|推論時間(s)|163.5|78.4|40.9|
|
| 52 |
|精度|86.4%|82.5%|83.3%|
|
| 53 |
+
|モデルファイルサイズ(MB)|440.2|-|41.8|
|
| 54 |
+
|
| 55 |
- 条件
|
| 56 |
- ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
|
| 57 |
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|