language: ja | |
license: mit | |
tags: | |
- bert | |
- lockerai | |
- reranking | |
- japanese | |
datasets: | |
- lost-item-similarity-dataset | |
# lockerai-reranking-bert | |
## モデルの説明 | |
このモデルは検索結果の再ランキングのためのBERTモデルです。 | |
## モデル詳細 | |
- ベースモデル: modernbert | |
- 隠れ層の次元: 1024 | |
- レイヤー数: 28 | |
- アテンションヘッド数: 16 | |
- 分類プーリング戦略: mean | |
- パラメータ数: 395,833,348 | |
## 使用方法 | |
```python | |
from transformers import AutoTokenizer, AutoModel | |
# トークナイザーとモデルをロード | |
tokenizer = AutoTokenizer.from_pretrained("lockerai/lockerai-reranking-bert") | |
model = AutoModel.from_pretrained("lockerai/lockerai-reranking-bert") | |
# 入力テキストのトークン化 | |
inputs = tokenizer("検索クエリ", "検索結果アイテム", return_tensors="pt") | |
# 推論 | |
outputs = model(**inputs) | |
``` | |
## 引用 | |
このモデルを使用する場合は、以下を引用してください: | |
``` | |
@misc{lockerai_reranking_bert}, | |
author = {lockerai}, | |
title = {lockerai-reranking-bert}, | |
year = {2025}, | |
publisher = {HuggingFace}, | |
howpublished = {\url{https://huggingface.co/lockerai/lockerai-reranking-bert}} | |
} | |
``` | |