File size: 1,230 Bytes
9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b 9027830 fbc6b2b |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 |
---
language: ja
license: mit
tags:
- bert
- lockerai
- reranking
- japanese
datasets:
- lost-item-similarity-dataset
---
# lockerai-reranking-bert
## モデルの説明
このモデルは検索結果の再ランキングのためのBERTモデルです。
## モデル詳細
- ベースモデル: modernbert
- 隠れ層の次元: 1024
- レイヤー数: 28
- アテンションヘッド数: 16
- 分類プーリング戦略: mean
- パラメータ数: 395,833,348
## 使用方法
```python
from transformers import AutoTokenizer, AutoModel
# トークナイザーとモデルをロード
tokenizer = AutoTokenizer.from_pretrained("lockerai/lockerai-reranking-bert")
model = AutoModel.from_pretrained("lockerai/lockerai-reranking-bert")
# 入力テキストのトークン化
inputs = tokenizer("検索クエリ", "検索結果アイテム", return_tensors="pt")
# 推論
outputs = model(**inputs)
```
## 引用
このモデルを使用する場合は、以下を引用してください:
```
@misc{lockerai_reranking_bert},
author = {lockerai},
title = {lockerai-reranking-bert},
year = {2025},
publisher = {HuggingFace},
howpublished = {\url{https://huggingface.co/lockerai/lockerai-reranking-bert}}
}
```
|