File size: 1,230 Bytes
9027830
fbc6b2b
 
 
 
 
 
 
 
 
9027830
 
fbc6b2b
9027830
fbc6b2b
9027830
fbc6b2b
9027830
fbc6b2b
9027830
fbc6b2b
 
 
 
 
 
9027830
fbc6b2b
9027830
fbc6b2b
 
9027830
fbc6b2b
 
 
9027830
fbc6b2b
 
9027830
fbc6b2b
 
 
9027830
fbc6b2b
9027830
fbc6b2b
9027830
fbc6b2b
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
---
language: ja
license: mit
tags:
- bert
- lockerai
- reranking
- japanese
datasets:
- lost-item-similarity-dataset
---

# lockerai-reranking-bert

## モデルの説明

このモデルは検索結果の再ランキングのためのBERTモデルです。

## モデル詳細

- ベースモデル: modernbert
- 隠れ層の次元: 1024
- レイヤー数: 28
- アテンションヘッド数: 16
- 分類プーリング戦略: mean
- パラメータ数: 395,833,348

## 使用方法

```python
from transformers import AutoTokenizer, AutoModel

# トークナイザーとモデルをロード
tokenizer = AutoTokenizer.from_pretrained("lockerai/lockerai-reranking-bert")
model = AutoModel.from_pretrained("lockerai/lockerai-reranking-bert")

# 入力テキストのトークン化
inputs = tokenizer("検索クエリ", "検索結果アイテム", return_tensors="pt")

# 推論
outputs = model(**inputs)
```

## 引用

このモデルを使用する場合は、以下を引用してください:

```
@misc{lockerai_reranking_bert},
  author = {lockerai},
  title = {lockerai-reranking-bert},
  year = {2025},
  publisher = {HuggingFace},
  howpublished = {\url{https://huggingface.co/lockerai/lockerai-reranking-bert}}
}
```