lockerai-reranking-bert

モデルの説明

このモデルは検索結果の再ランキングのためのBERTモデルです。

モデル詳細

  • ベースモデル: modernbert
  • 隠れ層の次元: 1024
  • レイヤー数: 28
  • アテンションヘッド数: 16
  • 分類プーリング戦略: mean
  • パラメータ数: 395,833,348

使用方法

from transformers import AutoTokenizer, AutoModel

# トークナイザーとモデルをロード
tokenizer = AutoTokenizer.from_pretrained("lockerai/lockerai-reranking-bert")
model = AutoModel.from_pretrained("lockerai/lockerai-reranking-bert")

# 入力テキストのトークン化
inputs = tokenizer("検索クエリ", "検索結果アイテム", return_tensors="pt")

# 推論
outputs = model(**inputs)

引用

このモデルを使用する場合は、以下を引用してください:

@misc{lockerai_reranking_bert},
  author = {lockerai},
  title = {lockerai-reranking-bert},
  year = {2025},
  publisher = {HuggingFace},
  howpublished = {\url{https://huggingface.co/lockerai/lockerai-reranking-bert}}
}
Downloads last month
54
Safetensors
Model size
396M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support