SentenceTransformer based on Turbo-AI/gte-multilingual-base__trim_vocab

This is a sentence-transformers model finetuned from Turbo-AI/gte-multilingual-base__trim_vocab. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 1024, 'do_lower_case': False}) with Transformer model: NewModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("Turbo-AI/gte-base-v0__trim_vocab-1024")
# Run inference
sentences = [
    'Trách nhiệm của nhân viên quản lý chất lượng tại phòng xét nghiệm trong quản lý chất lượng bệnh viện đa khoa được quy định ra sao?',
    'Trách nhiệm của nhân viên quản lý chất lượng tại phòng xét nghiệm\n1. Tổng hợp, tham mưu cho trưởng phòng xét nghiệm trong triển khai các nội dung về quản lý chất lượng xét nghiệm.\n2. Xây dựng kế hoạch và nội dung quản lý chất lượng xét nghiệm của phòng, trình lãnh đạo phòng xét nghiệm xem xét, quyết định để trình lãnh đạo cơ sở khám bệnh, chữa bệnh xem xét, phê duyệt.\n3. Tổ chức thực hiện chương trình nội kiểm và tham gia chương trình ngoại kiểm để theo dõi, giám sát, đánh giá chất lượng công tác xét nghiệm và phát hiện, đề xuất giải pháp can thiệp kịp thời nhằm quản lý những trường hợp sai sót, có nguy cơ sai sót trong các quy trình xét nghiệm.\n4. Thu thập, tổng hợp, phân tích dữ liệu, quản lý và bảo mật thông tin liên quan đến hoạt động phòng xét nghiệm.\n5. Phối hợp và hỗ trợ các khoa hoặc phòng liên quan khác trong việc triển khai quản lý chất lượng xét nghiệm.\n6. Tổng kết, báo cáo định kỳ hằng tháng, quý và năm về hoạt động và kết quả quản lý chất lượng xét nghiệm với trưởng phòng xét nghiệm, trưởng phòng (hoặc tổ trưởng) quản lý chất lượng bệnh viện và lãnh đạo cơ sở khám bệnh, chữa bệnh.\n7. Là đầu mối tham mưu để thực hiện các công việc liên quan với các tổ chức đánh giá, cấp chứng nhận phòng xét nghiệm đạt tiêu chuẩn quốc gia hoặc tiêu chuẩn quốc tế.',
    '1. Phòng tiếp khách đối ngoại tại trụ sở cơ quan đại diện, văn phòng trực thuộc hay nhà riêng có quốc kỳ Việt Nam và treo ảnh hoặc đặt tượng Chủ tịch Hồ Chí Minh phía sau nơi ngồi tiếp khách của người chủ trì tiếp khách.\n2. Treo ảnh hoặc đặt tượng Chủ tịch Hồ Chí Minh ở chính giữa, quốc kỳ Việt Nam treo trên cột cờ đặt phía bên trái ảnh hoặc tượng nếu nhìn từ phía đối diện. Đỉnh của ảnh hoặc tượng Chủ tịch Hồ Chí Minh không cao hơn đỉnh ngôi sao vàng trong quốc kỳ Việt Nam khi treo trên cột cờ. (Xem hình 5 trong Phụ lục).',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

Metric Value
cosine_accuracy@10 0.9497
cosine_precision@10 0.1004
cosine_recall@10 0.9306
cosine_ndcg@10 0.7428
cosine_mrr@10 0.6908
cosine_map@10 0.6762
dot_accuracy@10 0.9497
dot_precision@10 0.1004
dot_recall@10 0.9309
dot_ndcg@10 0.7149
dot_mrr@10 0.6546
dot_map@10 0.6392

Training Details

Training Dataset

Unnamed Dataset

  • Size: 609,413 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 8 tokens
    • mean: 25.66 tokens
    • max: 74 tokens
    • min: 26 tokens
    • mean: 265.94 tokens
    • max: 1024 tokens
  • Samples:
    anchor positive
    Việc tuần tra, canh gác bảo vệ đê Điều trong mùa lũ được thực hiện như thế nào? Thông tư này hướng dẫn tuần tra, canh gác bảo vệ đê Điều trong mùa lũ đối với các tuyến đê sông được phân loại, phân cấp theo quy định tại Điều 4 của Luật Đê Điều.
    Cách thức bảo vệ tuyến đê sông trong mùa lũ được quy định như thế nào? Thông tư này hướng dẫn tuần tra, canh gác bảo vệ đê Điều trong mùa lũ đối với các tuyến đê sông được phân loại, phân cấp theo quy định tại Điều 4 của Luật Đê Điều.
    Các tuyến đê sông được phân loại, phân cấp thì được bảo vệ ra sao? Thông tư này hướng dẫn tuần tra, canh gác bảo vệ đê Điều trong mùa lũ đối với các tuyến đê sông được phân loại, phân cấp theo quy định tại Điều 4 của Luật Đê Điều.
  • Loss: CachedMultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 4096
  • per_device_eval_batch_size: 4096
  • num_train_epochs: 5
  • warmup_ratio: 0.05
  • bf16: True
  • load_best_model_at_end: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 4096
  • per_device_eval_batch_size: 4096
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.05
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss cosine_map@10
0.0067 1 7.1703 -
0.0134 2 7.1798 -
0.0201 3 7.1921 -
0.0268 4 7.1764 -
0.0336 5 7.1942 -
0.0403 6 7.1712 -
0.0470 7 7.0703 -
0.0537 8 7.0478 -
0.0604 9 6.8367 -
0.0671 10 6.716 -
0.0738 11 6.6603 -
0.0805 12 5.8811 -
0.0872 13 5.7548 -
0.0940 14 5.4862 -
0.1007 15 4.9705 -
0.1074 16 4.5047 -
0.1141 17 4.3474 -
0.1208 18 4.1269 -
0.1275 19 3.8795 -
0.1342 20 3.7357 -
0.1409 21 3.2726 -
0.1477 22 3.107 -
0.1544 23 2.9576 -
0.1611 24 2.7544 -
0.1678 25 2.5584 -
0.1745 26 2.4129 -
0.1812 27 2.2592 -
0.1879 28 2.1605 -
0.1946 29 1.9635 -
0.2013 30 1.8905 -
0.2081 31 1.7623 -
0.2148 32 1.6536 -
0.2215 33 1.5194 -
0.2282 34 1.2924 -
0.2349 35 1.1131 -
0.2416 36 0.9684 -
0.2483 37 0.8815 -
0.2550 38 0.8135 -
0.2617 39 0.7569 -
0.2685 40 0.7257 -
0.2752 41 0.6537 -
0.2819 42 0.6096 -
0.2886 43 0.5817 -
0.2953 44 0.5965 -
0.3020 45 0.5602 -
0.3087 46 0.5287 -
0.3154 47 0.4964 -
0.3221 48 0.4858 -
0.3289 49 0.4805 -
0.3356 50 0.477 -
0.3423 51 0.4686 -
0.3490 52 0.432 -
0.3557 53 0.4303 -
0.3624 54 0.434 -
0.3691 55 0.423 -
0.3758 56 0.4075 -
0.3826 57 0.4019 -
0.3893 58 0.3886 -
0.3960 59 0.3725 -
0.4027 60 0.3675 -
0.4094 61 0.3733 -
0.4161 62 0.3774 -
0.4228 63 0.3909 -
0.4295 64 0.3721 -
0.4362 65 0.3566 -
0.4430 66 0.3409 -
0.4497 67 0.362 -
0.4564 68 0.3613 -
0.4631 69 0.354 -
0.4698 70 0.3379 -
0.4765 71 0.3525 -
0.4832 72 0.3225 -
0.4899 73 0.3148 -
0.4966 74 0.4755 -
0.5034 75 0.5973 -
0.5101 76 0.6487 -
0.5168 77 0.6887 -
0.5235 78 0.8575 -
0.5302 79 0.8181 -
0.5369 80 0.8791 -
0.5436 81 0.8026 -
0.5503 82 0.7696 -
0.5570 83 0.7278 -
0.5638 84 0.6707 -
0.5705 85 0.632 -
0.5772 86 0.6457 -
0.5839 87 0.7231 -
0.5906 88 0.6762 -
0.5973 89 0.6605 -
0.6040 90 0.639 -
0.6107 91 0.7126 -
0.6174 92 0.6703 -
0.6242 93 0.6116 -
0.6309 94 0.6143 -
0.6376 95 0.6082 -
0.6443 96 0.6074 -
0.6510 97 0.6499 -
0.6577 98 0.7679 -
0.6644 99 0.676 -
0.6711 100 0.6603 0.6409
0.6779 101 0.6438 -
0.6846 102 0.6479 -
0.6913 103 0.5959 -
0.6980 104 0.6173 -
0.7047 105 0.602 -
0.7114 106 0.5743 -
0.7181 107 0.5942 -
0.7248 108 0.5682 -
0.7315 109 0.5648 -
0.7383 110 0.5653 -
0.7450 111 0.6396 -
0.7517 112 0.7634 -
0.7584 113 0.6744 -
0.7651 114 0.6411 -
0.7718 115 0.5934 -
0.7785 116 0.5907 -
0.7852 117 0.5567 -
0.7919 118 0.5274 -
0.7987 119 0.6453 -
0.8054 120 0.6115 -
0.8121 121 0.5959 -
0.8188 122 0.5694 -
0.8255 123 0.5554 -
0.8322 124 0.5419 -
0.8389 125 0.591 -
0.8456 126 0.589 -
0.8523 127 0.5484 -
0.8591 128 0.5447 -
0.8658 129 0.6312 -
0.8725 130 0.6086 -
0.8792 131 0.5948 -
0.8859 132 0.5483 -
0.8926 133 0.5192 -
0.8993 134 0.5273 -
0.9060 135 0.6629 -
0.9128 136 0.6038 -
0.9195 137 0.5433 -
0.9262 138 0.5449 -
0.9329 139 0.5415 -
0.9396 140 0.566 -
0.9463 141 0.5391 -
0.9530 142 0.558 -
0.9597 143 0.6029 -
0.9664 144 0.6619 -
0.9732 145 0.597 -
0.9799 146 0.5931 -
0.9866 147 0.5943 -
0.9933 148 0.5677 -
1.0 149 0.4389 -
1.0067 150 0.2988 -
1.0134 151 0.1699 -
1.0201 152 0.0229 -
1.0067 153 0.5693 -
1.0134 154 0.6031 -
1.0201 155 0.5859 -
1.0268 156 0.5526 -
1.0336 157 0.5625 -
1.0403 158 0.5834 -
1.0470 159 0.5425 -
1.0537 160 0.5344 -
1.0604 161 0.5476 -
1.0671 162 0.5709 -
1.0738 163 0.5811 -
1.0805 164 0.5739 -
1.0872 165 0.5466 -
1.0940 166 0.564 -
1.1007 167 0.5211 -
1.1074 168 0.5349 -
1.1141 169 0.5007 -
1.1208 170 0.5054 -
1.1275 171 0.4804 -
1.1342 172 0.5091 -
1.1409 173 0.5141 -
1.1477 174 0.5154 -
1.1544 175 0.4973 -
1.1611 176 0.4771 -
1.1678 177 0.4817 -
1.1745 178 0.5269 -
1.1812 179 0.5113 -
1.1879 180 0.511 -
1.1946 181 0.4819 -
1.2013 182 0.5247 -
1.2081 183 0.5168 -
1.2148 184 0.5456 -
1.2215 185 0.5288 -
1.2282 186 0.4394 -
1.2349 187 0.4011 -
1.2416 188 0.3307 -
1.2483 189 0.3293 -
1.2550 190 0.3184 -
1.2617 191 0.3202 -
1.2685 192 0.3229 -
1.2752 193 0.3038 -
1.2819 194 0.2949 -
1.2886 195 0.2887 -
1.2953 196 0.297 -
1.3020 197 0.2925 -
1.3087 198 0.2819 -
1.3154 199 0.2689 -
1.3221 200 0.2711 0.6600
1.3289 201 0.2725 -
1.3356 202 0.2753 -
1.3423 203 0.2686 -
1.3490 204 0.2549 -
1.3557 205 0.255 -
1.3624 206 0.2586 -
1.3691 207 0.2499 -
1.3758 208 0.2481 -
1.3826 209 0.2536 -
1.3893 210 0.2407 -
1.3960 211 0.2312 -
1.4027 212 0.2264 -
1.4094 213 0.2355 -
1.4161 214 0.2501 -
1.4228 215 0.2509 -
1.4295 216 0.2428 -
1.4362 217 0.2358 -
1.4430 218 0.2266 -
1.4497 219 0.2455 -
1.4564 220 0.2431 -
1.4631 221 0.2445 -
1.4698 222 0.2349 -
1.4765 223 0.2451 -
1.4832 224 0.2225 -
1.4899 225 0.2207 -
1.4966 226 0.321 -
1.5034 227 0.4106 -
1.5101 228 0.442 -
1.5168 229 0.4754 -
1.5235 230 0.5885 -
1.5302 231 0.5739 -
1.5369 232 0.6174 -
1.5436 233 0.5669 -
1.5503 234 0.5445 -
1.5570 235 0.5238 -
1.5638 236 0.4801 -
1.5705 237 0.4585 -
1.5772 238 0.4656 -
1.5839 239 0.5197 -
1.5906 240 0.4985 -
1.5973 241 0.4895 -
1.6040 242 0.4842 -
1.6107 243 0.5392 -
1.6174 244 0.5039 -
1.6242 245 0.4607 -
1.6309 246 0.4645 -
1.6376 247 0.4642 -
1.6443 248 0.4603 -
1.6510 249 0.4968 -
1.6577 250 0.5946 -
1.6644 251 0.5178 -
1.6711 252 0.5016 -
1.6779 253 0.4997 -
1.6846 254 0.5071 -
1.6913 255 0.4633 -
1.6980 256 0.4814 -
1.7047 257 0.4717 -
1.7114 258 0.4541 -
1.7181 259 0.4641 -
1.7248 260 0.4557 -
1.7315 261 0.4479 -
1.7383 262 0.4514 -
1.7450 263 0.5193 -
1.7517 264 0.6282 -
1.7584 265 0.5518 -
1.7651 266 0.5105 -
1.7718 267 0.4772 -
1.7785 268 0.4799 -
1.7852 269 0.4534 -
1.7919 270 0.4318 -
1.7987 271 0.5261 -
1.8054 272 0.4988 -
1.8121 273 0.4867 -
1.8188 274 0.4587 -
1.8255 275 0.449 -
1.8322 276 0.4424 -
1.8389 277 0.4824 -
1.8456 278 0.4786 -
1.8523 279 0.4554 -
1.8591 280 0.4463 -
1.8658 281 0.5171 -
1.8725 282 0.5004 -
1.8792 283 0.4993 -
1.8859 284 0.4595 -
1.8926 285 0.4356 -
1.8993 286 0.4293 -
1.9060 287 0.5566 -
1.9128 288 0.509 -
1.9195 289 0.4572 -
1.9262 290 0.4519 -
1.9329 291 0.4471 -
1.9396 292 0.4804 -
1.9463 293 0.4505 -
1.9530 294 0.4779 -
1.9597 295 0.5127 -
1.9664 296 0.5568 -
1.9732 297 0.5047 -
1.9799 298 0.5021 -
1.9866 299 0.5035 -
1.9933 300 0.4793 0.6563
2.0 301 0.3424 -
2.0067 302 0.1931 -
2.0134 303 0.0681 -
2.0201 304 0.0015 -
2.0067 305 0.4829 -
2.0134 306 0.5198 -
2.0201 307 0.4872 -
2.0268 308 0.4593 -
2.0336 309 0.4781 -
2.0403 310 0.5025 -
2.0470 311 0.4695 -
2.0537 312 0.4529 -
2.0604 313 0.468 -
2.0671 314 0.4844 -
2.0738 315 0.498 -
2.0805 316 0.4933 -
2.0872 317 0.4663 -
2.0940 318 0.4913 -
2.1007 319 0.4582 -
2.1074 320 0.4652 -
2.1141 321 0.4318 -
2.1208 322 0.4375 -
2.1275 323 0.4237 -
2.1342 324 0.4435 -
2.1409 325 0.4428 -
2.1477 326 0.4469 -
2.1544 327 0.4416 -
2.1611 328 0.4162 -
2.1678 329 0.419 -
2.1745 330 0.4589 -
2.1812 331 0.4456 -
2.1879 332 0.4604 -
2.1946 333 0.4231 -
2.2013 334 0.4636 -
2.2081 335 0.4625 -
2.2148 336 0.4807 -
2.2215 337 0.4663 -
2.2282 338 0.3872 -
2.2349 339 0.3506 -
2.2416 340 0.2902 -
2.2483 341 0.2842 -
2.2550 342 0.2749 -
2.2617 343 0.2765 -
2.2685 344 0.283 -
2.2752 345 0.2649 -
2.2819 346 0.2552 -
2.2886 347 0.2548 -
2.2953 348 0.262 -
2.3020 349 0.255 -
2.3087 350 0.2479 -
2.3154 351 0.2348 -
2.3221 352 0.2354 -
2.3289 353 0.2397 -
2.3356 354 0.2427 -
2.3423 355 0.2398 -
2.3490 356 0.2235 -
2.3557 357 0.222 -
2.3624 358 0.2289 -
2.3691 359 0.2201 -
2.3758 360 0.2203 -
2.3826 361 0.2236 -
2.3893 362 0.2168 -
2.3960 363 0.202 -
2.4027 364 0.2021 -
2.4094 365 0.2106 -
2.4161 366 0.2213 -
2.4228 367 0.2254 -
2.4295 368 0.2189 -
2.4362 369 0.2097 -
2.4430 370 0.2001 -
2.4497 371 0.2174 -
2.4564 372 0.2135 -
2.4631 373 0.2175 -
2.4698 374 0.2085 -
2.4765 375 0.2191 -
2.4832 376 0.1964 -
2.4899 377 0.1948 -
2.4966 378 0.2866 -
2.5034 379 0.3712 -
2.5101 380 0.3974 -
2.5168 381 0.4217 -
2.5235 382 0.5219 -
2.5302 383 0.5122 -
2.5369 384 0.5458 -
2.5436 385 0.5018 -
2.5503 386 0.4838 -
2.5570 387 0.4573 -
2.5638 388 0.4314 -
2.5705 389 0.4078 -
2.5772 390 0.4151 -
2.5839 391 0.467 -
2.5906 392 0.4502 -
2.5973 393 0.4405 -
2.6040 394 0.4345 -
2.6107 395 0.4825 -
2.6174 396 0.4586 -
2.6242 397 0.4178 -
2.6309 398 0.4212 -
2.6376 399 0.4165 -
2.6443 400 0.4162 0.6601
2.6510 401 0.4444 -
2.6577 402 0.5377 -
2.6644 403 0.4701 -
2.6711 404 0.4506 -
2.6779 405 0.4495 -
2.6846 406 0.4515 -
2.6913 407 0.4148 -
2.6980 408 0.4318 -
2.7047 409 0.4246 -
2.7114 410 0.4115 -
2.7181 411 0.4142 -
2.7248 412 0.41 -
2.7315 413 0.4054 -
2.7383 414 0.4035 -
2.7450 415 0.4666 -
2.7517 416 0.5645 -
2.7584 417 0.4962 -
2.7651 418 0.4597 -
2.7718 419 0.4317 -
2.7785 420 0.4325 -
2.7852 421 0.4165 -
2.7919 422 0.3908 -
2.7987 423 0.4786 -
2.8054 424 0.4571 -
2.8121 425 0.4388 -
2.8188 426 0.4182 -
2.8255 427 0.4059 -
2.8322 428 0.3994 -
2.8389 429 0.4332 -
2.8456 430 0.4352 -
2.8523 431 0.421 -
2.8591 432 0.4081 -
2.8658 433 0.4704 -
2.8725 434 0.4592 -
2.8792 435 0.4508 -
2.8859 436 0.4201 -
2.8926 437 0.3928 -
2.8993 438 0.3992 -
2.9060 439 0.5154 -
2.9128 440 0.4649 -
2.9195 441 0.4165 -
2.9262 442 0.4121 -
2.9329 443 0.4072 -
2.9396 444 0.4369 -
2.9463 445 0.4191 -
2.9530 446 0.4306 -
2.9597 447 0.4688 -
2.9664 448 0.5092 -
2.9732 449 0.4639 -
2.9799 450 0.4647 -
2.9866 451 0.4589 -
2.9933 452 0.4412 -
3.0 453 0.3029 -
3.0067 454 0.1599 -
3.0134 455 0.0411 -
3.0201 456 0.0017 -
3.0067 457 0.4429 -
3.0134 458 0.4789 -
3.0201 459 0.4512 -
3.0268 460 0.4197 -
3.0336 461 0.4446 -
3.0403 462 0.4597 -
3.0470 463 0.4297 -
3.0537 464 0.4197 -
3.0604 465 0.4309 -
3.0671 466 0.4503 -
3.0738 467 0.4494 -
3.0805 468 0.4538 -
3.0872 469 0.4294 -
3.0940 470 0.4493 -
3.1007 471 0.4222 -
3.1074 472 0.4294 -
3.1141 473 0.4099 -
3.1208 474 0.4062 -
3.1275 475 0.3896 -
3.1342 476 0.4083 -
3.1409 477 0.4108 -
3.1477 478 0.4192 -
3.1544 479 0.4061 -
3.1611 480 0.3783 -
3.1678 481 0.3949 -
3.1745 482 0.428 -
3.1812 483 0.4176 -
3.1879 484 0.4207 -
3.1946 485 0.3946 -
3.2013 486 0.4282 -
3.2081 487 0.4346 -
3.2148 488 0.4544 -
3.2215 489 0.432 -
3.2282 490 0.3556 -
3.2349 491 0.3244 -
3.2416 492 0.2702 -
3.2483 493 0.2678 -
3.2550 494 0.2567 -
3.2617 495 0.2528 -
3.2685 496 0.2624 -
3.2752 497 0.2437 -
3.2819 498 0.2387 -
3.2886 499 0.2398 -
3.2953 500 0.2435 0.6685
3.3020 501 0.2353 -
3.3087 502 0.229 -
3.3154 503 0.2183 -
3.3221 504 0.22 -
3.3289 505 0.2236 -
3.3356 506 0.2242 -
3.3423 507 0.2251 -
3.3490 508 0.2108 -
3.3557 509 0.2065 -
3.3624 510 0.2128 -
3.3691 511 0.2051 -
3.3758 512 0.2043 -
3.3826 513 0.2116 -
3.3893 514 0.2044 -
3.3960 515 0.1903 -
3.4027 516 0.1857 -
3.4094 517 0.1971 -
3.4161 518 0.2029 -
3.4228 519 0.2098 -
3.4295 520 0.2031 -
3.4362 521 0.199 -
3.4430 522 0.1868 -
3.4497 523 0.2047 -
3.4564 524 0.1982 -
3.4631 525 0.2026 -
3.4698 526 0.1931 -
3.4765 527 0.2024 -
3.4832 528 0.1848 -
3.4899 529 0.1818 -
3.4966 530 0.2712 -
3.5034 531 0.3456 -
3.5101 532 0.3678 -
3.5168 533 0.394 -
3.5235 534 0.4889 -
3.5302 535 0.4686 -
3.5369 536 0.5048 -
3.5436 537 0.4732 -
3.5503 538 0.4504 -
3.5570 539 0.4241 -
3.5638 540 0.3936 -
3.5705 541 0.3833 -
3.5772 542 0.3815 -
3.5839 543 0.4333 -
3.5906 544 0.4239 -
3.5973 545 0.4124 -
3.6040 546 0.4028 -
3.6107 547 0.4585 -
3.6174 548 0.4256 -
3.6242 549 0.3916 -
3.6309 550 0.4002 -
3.6376 551 0.3962 -
3.6443 552 0.3874 -
3.6510 553 0.4229 -
3.6577 554 0.5071 -
3.6644 555 0.4432 -
3.6711 556 0.4282 -
3.6779 557 0.4249 -
3.6846 558 0.4287 -
3.6913 559 0.3875 -
3.6980 560 0.403 -
3.7047 561 0.395 -
3.7114 562 0.3859 -
3.7181 563 0.3917 -
3.7248 564 0.3882 -
3.7315 565 0.379 -
3.7383 566 0.3819 -
3.7450 567 0.4411 -
3.7517 568 0.5383 -
3.7584 569 0.4696 -
3.7651 570 0.4367 -
3.7718 571 0.4098 -
3.7785 572 0.4104 -
3.7852 573 0.3928 -
3.7919 574 0.3686 -
3.7987 575 0.4534 -
3.8054 576 0.4255 -
3.8121 577 0.4193 -
3.8188 578 0.3925 -
3.8255 579 0.3762 -
3.8322 580 0.3748 -
3.8389 581 0.4145 -
3.8456 582 0.4085 -
3.8523 583 0.3888 -
3.8591 584 0.3903 -
3.8658 585 0.4395 -
3.8725 586 0.4347 -
3.8792 587 0.428 -
3.8859 588 0.4008 -
3.8926 589 0.3706 -
3.8993 590 0.3769 -
3.9060 591 0.4869 -
3.9128 592 0.4406 -
3.9195 593 0.3963 -
3.9262 594 0.39 -
3.9329 595 0.3831 -
3.9396 596 0.4088 -
3.9463 597 0.3912 -
3.9530 598 0.4108 -
3.9597 599 0.4381 -
3.9664 600 0.4841 0.6654
3.9732 601 0.4425 -
3.9799 602 0.4377 -
3.9866 603 0.4344 -
3.9933 604 0.4155 -
4.0 605 0.2801 -
4.0067 606 0.1418 -
4.0134 607 0.0315 -
4.0201 608 0.0013 -
4.0067 609 0.4213 -
4.0134 610 0.4604 -
4.0201 611 0.4312 -
4.0268 612 0.406 -
4.0336 613 0.4238 -
4.0403 614 0.4446 -
4.0470 615 0.4127 -
4.0537 616 0.4034 -
4.0604 617 0.4092 -
4.0671 618 0.4285 -
4.0738 619 0.4324 -
4.0805 620 0.4317 -
4.0872 621 0.4167 -
4.0940 622 0.4352 -
4.1007 623 0.4074 -
4.1074 624 0.4102 -
4.1141 625 0.3799 -
4.1208 626 0.3885 -
4.1275 627 0.3709 -
4.1342 628 0.3957 -
4.1409 629 0.394 -
4.1477 630 0.4035 -
4.1544 631 0.389 -
4.1611 632 0.3656 -
4.1678 633 0.372 -
4.1745 634 0.4066 -
4.1812 635 0.3991 -
4.1879 636 0.4057 -
4.1946 637 0.3782 -
4.2013 638 0.4117 -
4.2081 639 0.41 -
4.2148 640 0.4359 -
4.2215 641 0.4191 -
4.2282 642 0.3428 -
4.2349 643 0.3156 -
4.2416 644 0.2591 -
4.2483 645 0.2533 -
4.2550 646 0.2483 -
4.2617 647 0.2505 -
4.2685 648 0.2494 -
4.2752 649 0.2354 -
4.2819 650 0.2302 -
4.2886 651 0.2285 -
4.2953 652 0.2366 -
4.3020 653 0.229 -
4.3087 654 0.2217 -
4.3154 655 0.2107 -
4.3221 656 0.2153 -
4.3289 657 0.216 -
4.3356 658 0.2161 -
4.3423 659 0.2174 -
4.3490 660 0.2031 -
4.3557 661 0.2034 -
4.3624 662 0.2015 -
4.3691 663 0.1987 -
4.3758 664 0.1984 -
4.3826 665 0.2004 -
4.3893 666 0.1961 -
4.3960 667 0.1829 -
4.4027 668 0.1821 -
4.4094 669 0.1894 -
4.4161 670 0.2007 -
4.4228 671 0.201 -
4.4295 672 0.1973 -
4.4362 673 0.1931 -
4.4430 674 0.1803 -
4.4497 675 0.1988 -
4.4564 676 0.1906 -
4.4631 677 0.1941 -
4.4698 678 0.1878 -
4.4765 679 0.1977 -
4.4832 680 0.1767 -
4.4899 681 0.1814 -
4.4966 682 0.2594 -
4.5034 683 0.3342 -
4.5101 684 0.3562 -
4.5168 685 0.3857 -
4.5235 686 0.4643 -
4.5302 687 0.4596 -
4.5369 688 0.4978 -
4.5436 689 0.4564 -
4.5503 690 0.4336 -
4.5570 691 0.4154 -
4.5638 692 0.3796 -
4.5705 693 0.3724 -
4.5772 694 0.3708 -
4.5839 695 0.4281 -
4.5906 696 0.4082 -
4.5973 697 0.4004 -
4.6040 698 0.3893 -
4.6107 699 0.4372 -
4.6174 700 0.4132 0.6762
4.6242 701 0.3766 -
4.6309 702 0.3869 -
4.6376 703 0.382 -
4.6443 704 0.3733 -
4.6510 705 0.4088 -
4.6577 706 0.4887 -
4.6644 707 0.4282 -
4.6711 708 0.4137 -
4.6779 709 0.4098 -
4.6846 710 0.4165 -
4.6913 711 0.3737 -
4.6980 712 0.3973 -
4.7047 713 0.3853 -
4.7114 714 0.3744 -
4.7181 715 0.3787 -
4.7248 716 0.372 -
4.7315 717 0.3675 -
4.7383 718 0.3652 -
4.7450 719 0.4291 -
4.7517 720 0.5218 -
4.7584 721 0.452 -
4.7651 722 0.4202 -
4.7718 723 0.3904 -
4.7785 724 0.3979 -
4.7852 725 0.3796 -
4.7919 726 0.3569 -
4.7987 727 0.4375 -
4.8054 728 0.4149 -
4.8121 729 0.4055 -
4.8188 730 0.3813 -
4.8255 731 0.3671 -
4.8322 732 0.3631 -
4.8389 733 0.4026 -
4.8456 734 0.3986 -
4.8523 735 0.3786 -
4.8591 736 0.3757 -
4.8658 737 0.4309 -
4.8725 738 0.4228 -
4.8792 739 0.416 -
4.8859 740 0.3891 -
4.8926 741 0.3614 -
4.8993 742 0.3633 -
4.9060 743 0.4739 -
4.9128 744 0.4307 -
4.9195 745 0.3833 -

Framework Versions

  • Python: 3.10.6
  • Sentence Transformers: 3.3.0.dev0
  • Transformers: 4.45.2
  • PyTorch: 2.4.1+cu118
  • Accelerate: 0.34.0
  • Datasets: 2.21.0
  • Tokenizers: 0.20.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

CachedMultipleNegativesRankingLoss

@misc{gao2021scaling,
    title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
    author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
    year={2021},
    eprint={2101.06983},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}
Downloads last month
21
Safetensors
Model size
126M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Turbo-AI/gte-base-v0__trim_vocab-1024

Finetuned
(1)
this model

Collection including Turbo-AI/gte-base-v0__trim_vocab-1024

Evaluation results