SentenceTransformer based on sentence-transformers/clip-ViT-L-14

This is a sentence-transformers model finetuned from sentence-transformers/clip-ViT-L-14 on the fashion-product-images-small dataset. It maps sentences & paragraphs to a None-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): CLIPModel()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("dejasi5459/clip-fashion-embeddings-final-10k-ft")
# Run inference
sentences = [
    'Women , Accessories , Bags , Handbags , Beige , Summer , Casual , Baggit Women Beige Handbag',
    'Men , Heels , Fall , Travel',
    'Men , Shoe Laces , Summer , Smart Casual',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[ 1.0000,  0.0014, -0.0547],
#         [ 0.0014,  1.0000,  0.5425],
#         [-0.0547,  0.5425,  1.0000]])

Evaluation

Metrics

Triplet

Metric fashion-train fashion-valid
cosine_accuracy 0.97 1.0

Training Details

Training Dataset

fashion-product-images-small

  • Dataset: fashion-product-images-small at b19f176
  • Size: 8,000 training samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type PIL.PngImagePlugin.PngImageFile string string
    details
    • min: 19 tokens
    • mean: 24.23 tokens
    • max: 35 tokens
    • min: 9 tokens
    • mean: 10.33 tokens
    • max: 14 tokens
  • Samples:
    anchor positive negative
    Men , Apparel , Topwear , Tshirts , Red , Summer , Casual , Levis Kids Boy's Dawson Red Kidswear Women , Shorts , Spring , Smart Casual
    Women , Footwear , Shoes , Casual Shoes , White , Summer , Casual , Nike Women Sweet Classic Leather White Shoes Men , Sports Shoes , Fall , Smart Casual
    Men , Footwear , Shoes , Sports Shoes , Brown , Summer , Sports , ADIDAS Men Adistreet Lux Brown Shoe Women , Sandals , Winter , Home
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Evaluation Dataset

fashion-product-images-small

  • Dataset: fashion-product-images-small at b19f176
  • Size: 1,000 evaluation samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type PIL.PngImagePlugin.PngImageFile string string
    details
    • min: 20 tokens
    • mean: 24.2 tokens
    • max: 47 tokens
    • min: 9 tokens
    • mean: 10.31 tokens
    • max: 14 tokens
  • Samples:
    anchor positive negative
    Men , Footwear , Shoes , Casual Shoes , White , Fall , Casual , Nike Men Air Force 1 '07 White Casual Shoe Women , Flats , Summer , Smart Casual
    Women , Apparel , Topwear , Tops , Black , Summer , Casual , Arrow Women Black Top Men , Rain Trousers , Spring , Party
    Men , Apparel , Bottomwear , Track Pants , Navy Blue , Summer , Sports , ADIDAS Men Navy Blue Track Pants Women , Sweatshirts , Spring , Formal
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • learning_rate: 0.0001
  • num_train_epochs: 2

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 0.0001
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 2
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss fashion-train_cosine_accuracy fashion-valid_cosine_accuracy
-1 -1 - - 0.9700 1.0
0.002 1 1.4003 - - -
0.004 2 1.1119 - - -
0.006 3 1.2029 - - -
0.008 4 0.978 - - -
0.01 5 1.0191 - - -
0.012 6 0.8693 - - -
0.014 7 0.848 - - -
0.016 8 0.8871 - - -
0.018 9 0.5639 - - -
0.02 10 0.692 - - -
0.022 11 0.7772 - - -
0.024 12 0.6034 - - -
0.026 13 0.5266 - - -
0.028 14 0.7358 - - -
0.03 15 1.0585 - - -
0.032 16 0.8482 - - -
0.034 17 0.5898 - - -
0.036 18 0.6048 - - -
0.038 19 0.4545 - - -
0.04 20 0.4008 - - -
0.042 21 0.5168 - - -
0.044 22 0.4695 - - -
0.046 23 0.3967 - - -
0.048 24 0.362 - - -
0.05 25 0.4646 - - -
0.052 26 0.5598 - - -
0.054 27 0.5656 - - -
0.056 28 0.5142 - - -
0.058 29 0.3224 - - -
0.06 30 0.2403 - - -
0.062 31 0.5408 - - -
0.064 32 0.453 - - -
0.066 33 0.4958 - - -
0.068 34 0.4889 - - -
0.07 35 0.1748 - - -
0.072 36 0.3695 - - -
0.074 37 0.217 - - -
0.076 38 0.173 - - -
0.078 39 0.3405 - - -
0.08 40 0.4013 - - -
0.082 41 0.3093 - - -
0.084 42 0.1899 - - -
0.086 43 0.2898 - - -
0.088 44 0.2056 - - -
0.09 45 0.4192 - - -
0.092 46 0.5506 - - -
0.094 47 0.3291 - - -
0.096 48 0.5283 - - -
0.098 49 0.3 - - -
0.1 50 0.3921 - - -
0.102 51 0.1889 - - -
0.104 52 0.365 - - -
0.106 53 0.2536 - - -
0.108 54 0.6396 - - -
0.11 55 0.6038 - - -
0.112 56 0.2498 - - -
0.114 57 0.3762 - - -
0.116 58 0.5381 - - -
0.118 59 0.2116 - - -
0.12 60 0.2854 - - -
0.122 61 0.29 - - -
0.124 62 0.3309 - - -
0.126 63 0.4402 - - -
0.128 64 0.4967 - - -
0.13 65 0.4815 - - -
0.132 66 0.2055 - - -
0.134 67 0.3258 - - -
0.136 68 0.1866 - - -
0.138 69 0.1681 - - -
0.14 70 0.7384 - - -
0.142 71 0.2245 - - -
0.144 72 0.1842 - - -
0.146 73 0.525 - - -
0.148 74 0.2487 - - -
0.15 75 0.2393 - - -
0.152 76 0.3291 - - -
0.154 77 0.4458 - - -
0.156 78 0.3911 - - -
0.158 79 0.4484 - - -
0.16 80 0.255 - - -
0.162 81 0.0973 - - -
0.164 82 0.3702 - - -
0.166 83 0.2479 - - -
0.168 84 0.2327 - - -
0.17 85 0.2123 - - -
0.172 86 0.156 - - -
0.174 87 0.3892 - - -
0.176 88 0.3888 - - -
0.178 89 0.187 - - -
0.18 90 0.2464 - - -
0.182 91 0.2139 - - -
0.184 92 0.3494 - - -
0.186 93 0.3791 - - -
0.188 94 0.5208 - - -
0.19 95 0.2742 - - -
0.192 96 0.374 - - -
0.194 97 0.139 - - -
0.196 98 0.1638 - - -
0.198 99 0.2959 - - -
0.2 100 0.5636 - - -
0.202 101 0.4424 - - -
0.204 102 0.3338 - - -
0.206 103 0.1129 - - -
0.208 104 0.1685 - - -
0.21 105 0.233 - - -
0.212 106 0.2105 - - -
0.214 107 0.2343 - - -
0.216 108 0.2141 - - -
0.218 109 0.3423 - - -
0.22 110 0.4749 - - -
0.222 111 0.1937 - - -
0.224 112 0.1544 - - -
0.226 113 0.1359 - - -
0.228 114 0.408 - - -
0.23 115 0.2372 - - -
0.232 116 0.2154 - - -
0.234 117 0.1981 - - -
0.236 118 0.4688 - - -
0.238 119 0.0942 - - -
0.24 120 0.3918 - - -
0.242 121 0.2535 - - -
0.244 122 0.1873 - - -
0.246 123 0.1739 - - -
0.248 124 0.324 - - -
0.25 125 0.2062 - - -
0.252 126 0.4738 - - -
0.254 127 0.1275 - - -
0.256 128 0.2184 - - -
0.258 129 0.2881 - - -
0.26 130 0.1788 - - -
0.262 131 0.1419 - - -
0.264 132 0.5235 - - -
0.266 133 0.2225 - - -
0.268 134 0.1465 - - -
0.27 135 0.1752 - - -
0.272 136 0.2211 - - -
0.274 137 0.1744 - - -
0.276 138 0.3357 - - -
0.278 139 0.1228 - - -
0.28 140 0.2985 - - -
0.282 141 0.153 - - -
0.284 142 0.2551 - - -
0.286 143 0.0954 - - -
0.288 144 0.0788 - - -
0.29 145 0.1737 - - -
0.292 146 0.2628 - - -
0.294 147 0.4496 - - -
0.296 148 0.1618 - - -
0.298 149 0.2089 - - -
0.3 150 0.1777 - - -
0.302 151 0.135 - - -
0.304 152 0.2643 - - -
0.306 153 0.1133 - - -
0.308 154 0.1094 - - -
0.31 155 0.1038 - - -
0.312 156 0.2038 - - -
0.314 157 0.2311 - - -
0.316 158 0.5661 - - -
0.318 159 0.3606 - - -
0.32 160 0.4023 - - -
0.322 161 0.3639 - - -
0.324 162 0.4255 - - -
0.326 163 0.1671 - - -
0.328 164 0.1361 - - -
0.33 165 0.2456 - - -
0.332 166 0.2077 - - -
0.334 167 0.2898 - - -
0.336 168 0.0694 - - -
0.338 169 0.2294 - - -
0.34 170 0.5453 - - -
0.342 171 0.1816 - - -
0.344 172 0.2118 - - -
0.346 173 0.2263 - - -
0.348 174 0.1951 - - -
0.35 175 0.2028 - - -
0.352 176 0.18 - - -
0.354 177 0.1816 - - -
0.356 178 0.1331 - - -
0.358 179 0.3346 - - -
0.36 180 0.0687 - - -
0.362 181 0.3379 - - -
0.364 182 0.3457 - - -
0.366 183 0.2591 - - -
0.368 184 0.1609 - - -
0.37 185 0.3275 - - -
0.372 186 0.147 - - -
0.374 187 0.3467 - - -
0.376 188 0.1189 - - -
0.378 189 0.2529 - - -
0.38 190 0.3501 - - -
0.382 191 0.1902 - - -
0.384 192 0.1114 - - -
0.386 193 0.3045 - - -
0.388 194 0.166 - - -
0.39 195 0.1243 - - -
0.392 196 0.4344 - - -
0.394 197 0.2925 - - -
0.396 198 0.504 - - -
0.398 199 0.1385 - - -
0.4 200 0.3138 - - -
0.402 201 0.1629 - - -
0.404 202 0.2234 - - -
0.406 203 0.2852 - - -
0.408 204 0.2141 - - -
0.41 205 0.2803 - - -
0.412 206 0.0341 - - -
0.414 207 0.3168 - - -
0.416 208 0.4483 - - -
0.418 209 0.122 - - -
0.42 210 0.0707 - - -
0.422 211 0.016 - - -
0.424 212 0.1141 - - -
0.426 213 0.1742 - - -
0.428 214 0.1826 - - -
0.43 215 0.2845 - - -
0.432 216 0.1824 - - -
0.434 217 0.1143 - - -
0.436 218 0.1273 - - -
0.438 219 0.1354 - - -
0.44 220 0.1638 - - -
0.442 221 0.0782 - - -
0.444 222 0.2316 - - -
0.446 223 0.3648 - - -
0.448 224 0.0869 - - -
0.45 225 0.1431 - - -
0.452 226 0.1672 - - -
0.454 227 0.207 - - -
0.456 228 0.1903 - - -
0.458 229 0.0683 - - -
0.46 230 0.1868 - - -
0.462 231 0.1748 - - -
0.464 232 0.2083 - - -
0.466 233 0.2913 - - -
0.468 234 0.1308 - - -
0.47 235 0.0867 - - -
0.472 236 0.263 - - -
0.474 237 0.1895 - - -
0.476 238 0.1614 - - -
0.478 239 0.1402 - - -
0.48 240 0.3519 - - -
0.482 241 0.2767 - - -
0.484 242 0.1667 - - -
0.486 243 0.5115 - - -
0.488 244 0.0606 - - -
0.49 245 0.4651 - - -
0.492 246 0.184 - - -
0.494 247 0.1824 - - -
0.496 248 0.2245 - - -
0.498 249 0.3303 - - -
0.5 250 0.2398 - - -
0.502 251 0.2398 - - -
0.504 252 0.352 - - -
0.506 253 0.5572 - - -
0.508 254 0.2223 - - -
0.51 255 0.0421 - - -
0.512 256 0.1221 - - -
0.514 257 0.1582 - - -
0.516 258 0.1213 - - -
0.518 259 0.3844 - - -
0.52 260 0.4487 - - -
0.522 261 0.3393 - - -
0.524 262 0.149 - - -
0.526 263 0.259 - - -
0.528 264 0.2228 - - -
0.53 265 0.0351 - - -
0.532 266 0.0799 - - -
0.534 267 0.0978 - - -
0.536 268 0.1861 - - -
0.538 269 0.0844 - - -
0.54 270 0.1347 - - -
0.542 271 0.2522 - - -
0.544 272 0.1483 - - -
0.546 273 0.1851 - - -
0.548 274 0.1182 - - -
0.55 275 0.0781 - - -
0.552 276 0.1604 - - -
0.554 277 0.1376 - - -
0.556 278 0.201 - - -
0.558 279 0.2055 - - -
0.56 280 0.3686 - - -
0.562 281 0.2476 - - -
0.564 282 0.2889 - - -
0.566 283 0.3226 - - -
0.568 284 0.1833 - - -
0.57 285 0.2476 - - -
0.572 286 0.1057 - - -
0.574 287 0.04 - - -
0.576 288 0.2292 - - -
0.578 289 0.3708 - - -
0.58 290 0.2986 - - -
0.582 291 0.0407 - - -
0.584 292 0.082 - - -
0.586 293 0.1767 - - -
0.588 294 0.1619 - - -
0.59 295 0.3599 - - -
0.592 296 0.0726 - - -
0.594 297 0.133 - - -
0.596 298 1.0037 - - -
0.598 299 0.3973 - - -
0.6 300 0.3185 - - -
0.602 301 0.1045 - - -
0.604 302 0.1648 - - -
0.606 303 0.1998 - - -
0.608 304 0.123 - - -
0.61 305 0.2402 - - -
0.612 306 0.0628 - - -
0.614 307 0.2182 - - -
0.616 308 0.5565 - - -
0.618 309 0.2727 - - -
0.62 310 0.1341 - - -
0.622 311 0.161 - - -
0.624 312 0.3356 - - -
0.626 313 0.188 - - -
0.628 314 0.0462 - - -
0.63 315 0.3384 - - -
0.632 316 0.0716 - - -
0.634 317 0.0489 - - -
0.636 318 0.1914 - - -
0.638 319 0.2019 - - -
0.64 320 0.0592 - - -
0.642 321 0.1223 - - -
0.644 322 0.3935 - - -
0.646 323 0.1 - - -
0.648 324 0.2039 - - -
0.65 325 0.1998 - - -
0.652 326 0.0754 - - -
0.654 327 0.2852 - - -
0.656 328 0.0789 - - -
0.658 329 0.088 - - -
0.66 330 0.3631 - - -
0.662 331 0.2219 - - -
0.664 332 0.0278 - - -
0.666 333 0.1907 - - -
0.668 334 0.4297 - - -
0.67 335 0.1929 - - -
0.672 336 0.3656 - - -
0.674 337 0.0511 - - -
0.676 338 0.0879 - - -
0.678 339 0.164 - - -
0.68 340 0.2902 - - -
0.682 341 0.1586 - - -
0.684 342 0.1924 - - -
0.686 343 0.1314 - - -
0.688 344 0.2551 - - -
0.69 345 0.0485 - - -
0.692 346 0.2896 - - -
0.694 347 0.3761 - - -
0.696 348 0.1443 - - -
0.698 349 0.123 - - -
0.7 350 0.5228 - - -
0.702 351 0.402 - - -
0.704 352 0.1245 - - -
0.706 353 0.1728 - - -
0.708 354 0.1756 - - -
0.71 355 0.2484 - - -
0.712 356 0.1169 - - -
0.714 357 0.6645 - - -
0.716 358 0.1821 - - -
0.718 359 0.182 - - -
0.72 360 0.2714 - - -
0.722 361 0.1697 - - -
0.724 362 0.2253 - - -
0.726 363 0.0968 - - -
0.728 364 0.2319 - - -
0.73 365 0.0494 - - -
0.732 366 0.1669 - - -
0.734 367 0.2401 - - -
0.736 368 0.2175 - - -
0.738 369 0.1646 - - -
0.74 370 0.2723 - - -
0.742 371 0.0859 - - -
0.744 372 0.2303 - - -
0.746 373 0.2549 - - -
0.748 374 0.4661 - - -
0.75 375 0.1468 - - -
0.752 376 0.0761 - - -
0.754 377 0.1087 - - -
0.756 378 0.351 - - -
0.758 379 0.0139 - - -
0.76 380 0.1237 - - -
0.762 381 0.3336 - - -
0.764 382 0.1571 - - -
0.766 383 0.1694 - - -
0.768 384 0.3524 - - -
0.77 385 0.1822 - - -
0.772 386 0.2645 - - -
0.774 387 0.0663 - - -
0.776 388 0.0394 - - -
0.778 389 0.1435 - - -
0.78 390 0.2122 - - -
0.782 391 0.2486 - - -
0.784 392 0.2012 - - -
0.786 393 0.1636 - - -
0.788 394 0.0966 - - -
0.79 395 0.0527 - - -
0.792 396 0.2761 - - -
0.794 397 0.3692 - - -
0.796 398 0.2811 - - -
0.798 399 0.1392 - - -
0.8 400 0.0465 - - -
0.802 401 0.0554 - - -
0.804 402 0.1689 - - -
0.806 403 0.1625 - - -
0.808 404 0.3941 - - -
0.81 405 0.4193 - - -
0.812 406 0.2833 - - -
0.814 407 0.1552 - - -
0.816 408 0.199 - - -
0.818 409 0.3157 - - -
0.82 410 0.2392 - - -
0.822 411 0.0693 - - -
0.824 412 0.4686 - - -
0.826 413 0.1177 - - -
0.828 414 0.185 - - -
0.83 415 0.0819 - - -
0.832 416 0.2222 - - -
0.834 417 0.1546 - - -
0.836 418 0.0805 - - -
0.838 419 0.1361 - - -
0.84 420 0.2089 - - -
0.842 421 0.1941 - - -
0.844 422 0.0744 - - -
0.846 423 0.05 - - -
0.848 424 0.0621 - - -
0.85 425 0.2144 - - -
0.852 426 0.056 - - -
0.854 427 0.2078 - - -
0.856 428 0.0821 - - -
0.858 429 0.1136 - - -
0.86 430 0.1544 - - -
0.862 431 0.1836 - - -
0.864 432 0.1087 - - -
0.866 433 0.322 - - -
0.868 434 0.0391 - - -
0.87 435 0.1322 - - -
0.872 436 0.0881 - - -
0.874 437 0.1749 - - -
0.876 438 0.2667 - - -
0.878 439 0.1501 - - -
0.88 440 0.1071 - - -
0.882 441 0.179 - - -
0.884 442 0.5814 - - -
0.886 443 0.2023 - - -
0.888 444 0.0803 - - -
0.89 445 0.1932 - - -
0.892 446 0.2618 - - -
0.894 447 0.1331 - - -
0.896 448 0.4016 - - -
0.898 449 0.2741 - - -
0.9 450 0.1994 - - -
0.902 451 0.115 - - -
0.904 452 0.1739 - - -
0.906 453 0.089 - - -
0.908 454 0.0886 - - -
0.91 455 0.2182 - - -
0.912 456 0.0299 - - -
0.914 457 0.1511 - - -
0.916 458 0.2457 - - -
0.918 459 0.0567 - - -
0.92 460 0.1907 - - -
0.922 461 0.0631 - - -
0.924 462 0.2046 - - -
0.926 463 0.1605 - - -
0.928 464 0.1443 - - -
0.93 465 0.1854 - - -
0.932 466 0.0452 - - -
0.934 467 0.1564 - - -
0.936 468 0.0573 - - -
0.938 469 0.0728 - - -
0.94 470 0.0501 - - -
0.942 471 0.0822 - - -
0.944 472 0.0434 - - -
0.946 473 0.0656 - - -
0.948 474 0.131 - - -
0.95 475 0.2515 - - -
0.952 476 0.1754 - - -
0.954 477 0.451 - - -
0.956 478 0.063 - - -
0.958 479 0.0354 - - -
0.96 480 0.0494 - - -
0.962 481 0.0326 - - -
0.964 482 0.2049 - - -
0.966 483 0.2575 - - -
0.968 484 0.1779 - - -
0.97 485 0.2478 - - -
0.972 486 0.1138 - - -
0.974 487 0.063 - - -
0.976 488 0.1898 - - -
0.978 489 0.2034 - - -
0.98 490 0.1617 - - -
0.982 491 0.2822 - - -
0.984 492 0.046 - - -
0.986 493 0.0354 - - -
0.988 494 0.1589 - - -
0.99 495 0.2142 - - -
0.992 496 0.3233 - - -
0.994 497 0.0192 - - -
0.996 498 0.0238 - - -
0.998 499 0.1822 - - -
1.0 500 0.1202 0.1581 - -
1.002 501 0.0882 - - -
1.004 502 0.1403 - - -
1.006 503 0.2969 - - -
1.008 504 0.1263 - - -
1.01 505 0.1325 - - -
1.012 506 0.3101 - - -
1.014 507 0.0147 - - -
1.016 508 0.1932 - - -
1.018 509 0.0967 - - -
1.02 510 0.1552 - - -
1.022 511 0.1372 - - -
1.024 512 0.3528 - - -
1.026 513 0.0907 - - -
1.028 514 0.1568 - - -
1.03 515 0.12 - - -
1.032 516 0.0081 - - -
1.034 517 0.1362 - - -
1.036 518 0.17 - - -
1.038 519 0.1464 - - -
1.04 520 0.0557 - - -
1.042 521 0.0173 - - -
1.044 522 0.1257 - - -
1.046 523 0.109 - - -
1.048 524 0.1324 - - -
1.05 525 0.0473 - - -
1.052 526 0.0282 - - -
1.054 527 0.0306 - - -
1.056 528 0.1041 - - -
1.058 529 0.0325 - - -
1.06 530 0.1379 - - -
1.062 531 0.0688 - - -
1.064 532 0.0237 - - -
1.066 533 0.0413 - - -
1.068 534 0.0438 - - -
1.07 535 0.0221 - - -
1.072 536 0.1374 - - -
1.074 537 0.2016 - - -
1.076 538 0.117 - - -
1.078 539 0.0732 - - -
1.08 540 0.2851 - - -
1.082 541 0.1177 - - -
1.084 542 0.0857 - - -
1.086 543 0.2624 - - -
1.088 544 0.1199 - - -
1.09 545 0.275 - - -
1.092 546 0.1492 - - -
1.094 547 0.0811 - - -
1.096 548 0.0325 - - -
1.098 549 0.1453 - - -
1.1 550 0.132 - - -
1.102 551 0.1163 - - -
1.104 552 0.2139 - - -
1.106 553 0.0967 - - -
1.108 554 0.1572 - - -
1.11 555 0.109 - - -
1.112 556 0.1066 - - -
1.114 557 0.0795 - - -
1.116 558 0.0573 - - -
1.1180 559 0.0665 - - -
1.12 560 0.279 - - -
1.1220 561 0.1225 - - -
1.124 562 0.3426 - - -
1.126 563 0.0613 - - -
1.1280 564 0.0596 - - -
1.13 565 0.2966 - - -
1.1320 566 0.1284 - - -
1.134 567 0.027 - - -
1.1360 568 0.1999 - - -
1.138 569 0.1538 - - -
1.1400 570 0.0501 - - -
1.142 571 0.0768 - - -
1.144 572 0.2638 - - -
1.146 573 0.0601 - - -
1.148 574 0.1626 - - -
1.15 575 0.1472 - - -
1.152 576 0.0115 - - -
1.154 577 0.0273 - - -
1.156 578 0.0259 - - -
1.158 579 0.0521 - - -
1.16 580 0.0735 - - -
1.162 581 0.1397 - - -
1.164 582 0.0481 - - -
1.166 583 0.0513 - - -
1.168 584 0.0899 - - -
1.17 585 0.178 - - -
1.172 586 0.0456 - - -
1.174 587 0.0787 - - -
1.176 588 0.0707 - - -
1.178 589 0.1899 - - -
1.18 590 0.1229 - - -
1.182 591 0.1822 - - -
1.184 592 0.215 - - -
1.186 593 0.1395 - - -
1.188 594 0.3954 - - -
1.19 595 0.045 - - -
1.192 596 0.2338 - - -
1.194 597 0.2622 - - -
1.196 598 0.2399 - - -
1.198 599 0.0787 - - -
1.2 600 0.1069 - - -
1.202 601 0.0787 - - -
1.204 602 0.0477 - - -
1.206 603 0.1301 - - -
1.208 604 0.1111 - - -
1.21 605 0.0251 - - -
1.212 606 0.1046 - - -
1.214 607 0.0361 - - -
1.216 608 0.0434 - - -
1.218 609 0.1725 - - -
1.22 610 0.0638 - - -
1.222 611 0.046 - - -
1.224 612 0.1678 - - -
1.226 613 0.1098 - - -
1.228 614 0.0834 - - -
1.23 615 0.1329 - - -
1.232 616 0.304 - - -
1.234 617 0.0296 - - -
1.236 618 0.0801 - - -
1.238 619 0.1882 - - -
1.24 620 0.2169 - - -
1.242 621 0.0739 - - -
1.244 622 0.0463 - - -
1.246 623 0.0848 - - -
1.248 624 0.0407 - - -
1.25 625 0.1851 - - -
1.252 626 0.0745 - - -
1.254 627 0.2142 - - -
1.256 628 0.0882 - - -
1.258 629 0.0301 - - -
1.26 630 0.1778 - - -
1.262 631 0.1925 - - -
1.264 632 0.3233 - - -
1.266 633 0.0969 - - -
1.268 634 0.1343 - - -
1.27 635 0.1478 - - -
1.272 636 0.1055 - - -
1.274 637 0.2572 - - -
1.276 638 0.0496 - - -
1.278 639 0.0144 - - -
1.28 640 0.0792 - - -
1.282 641 0.0967 - - -
1.284 642 0.08 - - -
1.286 643 0.0922 - - -
1.288 644 0.1447 - - -
1.29 645 0.2521 - - -
1.292 646 0.0659 - - -
1.294 647 0.0804 - - -
1.296 648 0.1712 - - -
1.298 649 0.0455 - - -
1.3 650 0.1506 - - -
1.302 651 0.2414 - - -
1.304 652 0.0795 - - -
1.306 653 0.0976 - - -
1.308 654 0.0934 - - -
1.31 655 0.1511 - - -
1.312 656 0.066 - - -
1.314 657 0.244 - - -
1.316 658 0.186 - - -
1.318 659 0.1296 - - -
1.32 660 0.1309 - - -
1.322 661 0.093 - - -
1.324 662 0.0457 - - -
1.326 663 0.122 - - -
1.328 664 0.155 - - -
1.33 665 0.1544 - - -
1.332 666 0.1538 - - -
1.334 667 0.0263 - - -
1.336 668 0.0883 - - -
1.338 669 0.0986 - - -
1.34 670 0.1337 - - -
1.342 671 0.0487 - - -
1.3440 672 0.0677 - - -
1.346 673 0.1479 - - -
1.3480 674 0.1033 - - -
1.35 675 0.0825 - - -
1.3520 676 0.1376 - - -
1.354 677 0.0389 - - -
1.3560 678 0.0428 - - -
1.358 679 0.0924 - - -
1.3600 680 0.3238 - - -
1.362 681 0.0606 - - -
1.3640 682 0.1446 - - -
1.366 683 0.1162 - - -
1.3680 684 0.0156 - - -
1.37 685 0.1563 - - -
1.3720 686 0.1791 - - -
1.374 687 0.1723 - - -
1.376 688 0.022 - - -
1.3780 689 0.1115 - - -
1.38 690 0.0513 - - -
1.3820 691 0.0493 - - -
1.384 692 0.1351 - - -
1.3860 693 0.1507 - - -
1.388 694 0.1069 - - -
1.3900 695 0.0148 - - -
1.392 696 0.0643 - - -
1.3940 697 0.0175 - - -
1.396 698 0.1017 - - -
1.3980 699 0.0461 - - -
1.4 700 0.0096 - - -
1.4020 701 0.1118 - - -
1.404 702 0.1427 - - -
1.4060 703 0.0953 - - -
1.408 704 0.0912 - - -
1.41 705 0.2649 - - -
1.412 706 0.1928 - - -
1.414 707 0.0384 - - -
1.416 708 0.0579 - - -
1.418 709 0.0942 - - -
1.42 710 0.0532 - - -
1.422 711 0.1949 - - -
1.424 712 0.1657 - - -
1.426 713 0.0957 - - -
1.428 714 0.1495 - - -
1.43 715 0.1316 - - -
1.432 716 0.1386 - - -
1.434 717 0.1377 - - -
1.436 718 0.0269 - - -
1.438 719 0.1463 - - -
1.44 720 0.0322 - - -
1.442 721 0.0959 - - -
1.444 722 0.262 - - -
1.446 723 0.1211 - - -
1.448 724 0.105 - - -
1.45 725 0.0905 - - -
1.452 726 0.1649 - - -
1.454 727 0.0931 - - -
1.456 728 0.1015 - - -
1.458 729 0.2908 - - -
1.46 730 0.133 - - -
1.462 731 0.0185 - - -
1.464 732 0.162 - - -
1.466 733 0.2447 - - -
1.468 734 0.1219 - - -
1.47 735 0.1305 - - -
1.472 736 0.0223 - - -
1.474 737 0.1261 - - -
1.476 738 0.0299 - - -
1.478 739 0.1124 - - -
1.48 740 0.0632 - - -
1.482 741 0.0741 - - -
1.484 742 0.089 - - -
1.486 743 0.0845 - - -
1.488 744 0.1445 - - -
1.49 745 0.0472 - - -
1.492 746 0.0799 - - -
1.494 747 0.0979 - - -
1.496 748 0.0296 - - -
1.498 749 0.055 - - -
1.5 750 0.0787 - - -
1.502 751 0.0693 - - -
1.504 752 0.0731 - - -
1.506 753 0.4 - - -
1.508 754 0.1831 - - -
1.51 755 0.0708 - - -
1.512 756 0.1108 - - -
1.514 757 0.0451 - - -
1.516 758 0.0482 - - -
1.518 759 0.14 - - -
1.52 760 0.1363 - - -
1.522 761 0.026 - - -
1.524 762 0.1186 - - -
1.526 763 0.0555 - - -
1.528 764 0.0464 - - -
1.53 765 0.1183 - - -
1.532 766 0.1928 - - -
1.534 767 0.0853 - - -
1.536 768 0.0391 - - -
1.538 769 0.146 - - -
1.54 770 0.2329 - - -
1.542 771 0.0312 - - -
1.544 772 0.023 - - -
1.546 773 0.0287 - - -
1.548 774 0.1207 - - -
1.55 775 0.0661 - - -
1.552 776 0.0676 - - -
1.554 777 0.0819 - - -
1.556 778 0.1381 - - -
1.558 779 0.0536 - - -
1.56 780 0.0785 - - -
1.562 781 0.0882 - - -
1.564 782 0.163 - - -
1.5660 783 0.2363 - - -
1.568 784 0.0252 - - -
1.5700 785 0.1315 - - -
1.572 786 0.0607 - - -
1.5740 787 0.1187 - - -
1.576 788 0.1396 - - -
1.5780 789 0.1571 - - -
1.58 790 0.018 - - -
1.5820 791 0.0429 - - -
1.584 792 0.0273 - - -
1.5860 793 0.2074 - - -
1.588 794 0.0327 - - -
1.5900 795 0.3247 - - -
1.592 796 0.0979 - - -
1.5940 797 0.0725 - - -
1.596 798 0.2245 - - -
1.5980 799 0.0806 - - -
1.6 800 0.0518 - - -
1.6020 801 0.3045 - - -
1.604 802 0.182 - - -
1.6060 803 0.0297 - - -
1.608 804 0.1159 - - -
1.6100 805 0.0743 - - -
1.612 806 0.1822 - - -
1.6140 807 0.2173 - - -
1.616 808 0.0427 - - -
1.6180 809 0.0755 - - -
1.62 810 0.0775 - - -
1.6220 811 0.0307 - - -
1.624 812 0.1468 - - -
1.626 813 0.0179 - - -
1.6280 814 0.0741 - - -
1.63 815 0.0084 - - -
1.6320 816 0.0804 - - -
1.634 817 0.1786 - - -
1.6360 818 0.0668 - - -
1.638 819 0.0427 - - -
1.6400 820 0.1984 - - -
1.642 821 0.0283 - - -
1.6440 822 0.3168 - - -
1.646 823 0.0422 - - -
1.6480 824 0.0174 - - -
1.65 825 0.4652 - - -
1.6520 826 0.1203 - - -
1.654 827 0.5123 - - -
1.6560 828 0.0357 - - -
1.658 829 0.1066 - - -
1.6600 830 0.0586 - - -
1.662 831 0.0248 - - -
1.6640 832 0.2005 - - -
1.666 833 0.2822 - - -
1.6680 834 0.1164 - - -
1.67 835 0.0369 - - -
1.6720 836 0.0337 - - -
1.674 837 0.0298 - - -
1.6760 838 0.0321 - - -
1.678 839 0.2547 - - -
1.6800 840 0.0279 - - -
1.682 841 0.0421 - - -
1.6840 842 0.0922 - - -
1.686 843 0.1706 - - -
1.688 844 0.0396 - - -
1.69 845 0.2036 - - -
1.692 846 0.0424 - - -
1.694 847 0.0218 - - -
1.696 848 0.0416 - - -
1.698 849 0.0701 - - -
1.7 850 0.1413 - - -
1.702 851 0.18 - - -
1.704 852 0.3281 - - -
1.706 853 0.0621 - - -
1.708 854 0.1265 - - -
1.71 855 0.1584 - - -
1.712 856 0.1026 - - -
1.714 857 0.0396 - - -
1.716 858 0.1851 - - -
1.718 859 0.3312 - - -
1.72 860 0.0175 - - -
1.722 861 0.1121 - - -
1.724 862 0.1166 - - -
1.726 863 0.2599 - - -
1.728 864 0.0271 - - -
1.73 865 0.0375 - - -
1.732 866 0.2162 - - -
1.734 867 0.2942 - - -
1.736 868 0.1047 - - -
1.738 869 0.168 - - -
1.74 870 0.0997 - - -
1.742 871 0.1627 - - -
1.744 872 0.0577 - - -
1.746 873 0.1708 - - -
1.748 874 0.0256 - - -
1.75 875 0.0066 - - -
1.752 876 0.0222 - - -
1.754 877 0.075 - - -
1.756 878 0.3203 - - -
1.758 879 0.0435 - - -
1.76 880 0.0762 - - -
1.762 881 0.097 - - -
1.764 882 0.0438 - - -
1.766 883 0.0834 - - -
1.768 884 0.1426 - - -
1.77 885 0.0322 - - -
1.772 886 0.2118 - - -
1.774 887 0.1225 - - -
1.776 888 0.0479 - - -
1.778 889 0.2409 - - -
1.78 890 0.0674 - - -
1.782 891 0.0272 - - -
1.784 892 0.1856 - - -
1.786 893 0.0809 - - -
1.788 894 0.1939 - - -
1.79 895 0.0078 - - -
1.792 896 0.2903 - - -
1.794 897 0.1346 - - -
1.796 898 0.0814 - - -
1.798 899 0.1268 - - -
1.8 900 0.0869 - - -
1.802 901 0.0506 - - -
1.804 902 0.1026 - - -
1.806 903 0.0654 - - -
1.808 904 0.0812 - - -
1.81 905 0.0503 - - -
1.812 906 0.0425 - - -
1.814 907 0.0137 - - -
1.8160 908 0.0172 - - -
1.818 909 0.0648 - - -
1.8200 910 0.2936 - - -
1.822 911 0.0717 - - -
1.8240 912 0.3888 - - -
1.826 913 0.1013 - - -
1.8280 914 0.0628 - - -
1.83 915 0.0973 - - -
1.8320 916 0.1743 - - -
1.834 917 0.3647 - - -
1.8360 918 0.086 - - -
1.838 919 0.0778 - - -
1.8400 920 0.8005 - - -
1.842 921 0.2143 - - -
1.8440 922 0.0517 - - -
1.846 923 0.0518 - - -
1.8480 924 0.0924 - - -
1.85 925 0.2011 - - -
1.8520 926 0.1827 - - -
1.854 927 0.1945 - - -
1.8560 928 0.0351 - - -
1.858 929 0.0997 - - -
1.8600 930 0.3409 - - -
1.862 931 0.3948 - - -
1.8640 932 0.0749 - - -
1.866 933 0.1114 - - -
1.8680 934 0.1581 - - -
1.87 935 0.1248 - - -
1.8720 936 0.0723 - - -
1.874 937 0.0996 - - -
1.876 938 0.0613 - - -
1.8780 939 0.0193 - - -
1.88 940 0.0821 - - -
1.8820 941 0.0973 - - -
1.884 942 0.0814 - - -
1.8860 943 0.0633 - - -
1.888 944 0.4131 - - -
1.8900 945 0.0262 - - -
1.892 946 0.1662 - - -
1.8940 947 0.0621 - - -
1.896 948 0.1431 - - -
1.8980 949 0.1229 - - -
1.9 950 0.048 - - -
1.9020 951 0.2348 - - -
1.904 952 0.2099 - - -
1.9060 953 0.0815 - - -
1.908 954 0.0525 - - -
1.9100 955 0.0828 - - -
1.912 956 0.0879 - - -
1.9140 957 0.1166 - - -
1.916 958 0.1352 - - -
1.9180 959 0.1826 - - -
1.92 960 0.0749 - - -
1.9220 961 0.1123 - - -
1.924 962 0.0405 - - -
1.9260 963 0.2869 - - -
1.928 964 0.0289 - - -
1.9300 965 0.1039 - - -
1.932 966 0.1875 - - -
1.9340 967 0.0567 - - -
1.936 968 0.042 - - -
1.938 969 0.1026 - - -
1.94 970 0.2839 - - -
1.942 971 0.183 - - -
1.944 972 0.0164 - - -
1.946 973 0.0975 - - -
1.948 974 0.0328 - - -
1.95 975 0.0867 - - -
1.952 976 0.1905 - - -
1.954 977 0.1479 - - -
1.956 978 0.0164 - - -
1.958 979 0.0182 - - -
1.96 980 0.0076 - - -
1.962 981 0.0128 - - -
1.964 982 0.0302 - - -
1.966 983 0.1654 - - -
1.968 984 0.1246 - - -
1.97 985 0.1388 - - -
1.972 986 0.0126 - - -
1.974 987 0.0651 - - -
1.976 988 0.1211 - - -
1.978 989 0.0142 - - -
1.98 990 0.1596 - - -
1.982 991 0.0819 - - -
1.984 992 0.058 - - -
1.986 993 0.0131 - - -
1.988 994 0.0666 - - -
1.99 995 0.1033 - - -
1.992 996 0.0368 - - -
1.994 997 0.0578 - - -
1.996 998 0.1155 - - -
1.998 999 0.016 - - -
2.0 1000 0.0665 - - -

Framework Versions

  • Python: 3.12.5
  • Sentence Transformers: 5.0.0
  • Transformers: 4.54.0
  • PyTorch: 2.7.1+cu126
  • Accelerate: 1.9.0
  • Datasets: 4.0.0
  • Tokenizers: 0.21.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
8
Safetensors
Model size
428M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for dejasi5459/clip-fashion-embeddings-final-10k-ft

Finetuned
(8)
this model

Dataset used to train dejasi5459/clip-fashion-embeddings-final-10k-ft

Evaluation results