--- language: ja license: mit tags: - bert - lockerai - reranking - japanese datasets: - lost-item-similarity-dataset --- # lockerai-reranking-bert ## モデルの説明 このモデルは検索結果の再ランキングのためのBERTモデルです。 ## モデル詳細 - ベースモデル: modernbert - 隠れ層の次元: 1024 - レイヤー数: 28 - アテンションヘッド数: 16 - 分類プーリング戦略: mean - パラメータ数: 395,833,348 ## 使用方法 ```python from transformers import AutoTokenizer, AutoModel # トークナイザーとモデルをロード tokenizer = AutoTokenizer.from_pretrained("lockerai/lockerai-reranking-bert") model = AutoModel.from_pretrained("lockerai/lockerai-reranking-bert") # 入力テキストのトークン化 inputs = tokenizer("検索クエリ", "検索結果アイテム", return_tensors="pt") # 推論 outputs = model(**inputs) ``` ## 引用 このモデルを使用する場合は、以下を引用してください: ``` @misc{lockerai_reranking_bert}, author = {lockerai}, title = {lockerai-reranking-bert}, year = {2025}, publisher = {HuggingFace}, howpublished = {\url{https://huggingface.co/lockerai/lockerai-reranking-bert}} } ```