lockerai-reranking-bert
モデルの説明
このモデルは検索結果の再ランキングのためのBERTモデルです。
モデル詳細
- ベースモデル: modernbert
- 隠れ層の次元: 1024
- レイヤー数: 28
- アテンションヘッド数: 16
- 分類プーリング戦略: mean
- パラメータ数: 395,833,348
使用方法
from transformers import AutoTokenizer, AutoModel
# トークナイザーとモデルをロード
tokenizer = AutoTokenizer.from_pretrained("lockerai/lockerai-reranking-bert")
model = AutoModel.from_pretrained("lockerai/lockerai-reranking-bert")
# 入力テキストのトークン化
inputs = tokenizer("検索クエリ", "検索結果アイテム", return_tensors="pt")
# 推論
outputs = model(**inputs)
引用
このモデルを使用する場合は、以下を引用してください:
@misc{lockerai_reranking_bert},
author = {lockerai},
title = {lockerai-reranking-bert},
year = {2025},
publisher = {HuggingFace},
howpublished = {\url{https://huggingface.co/lockerai/lockerai-reranking-bert}}
}
- Downloads last month
- 54
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support