SentenceTransformer based on NAMAA-Space/AraModernBert-Base-STS

This is a sentence-transformers model finetuned from NAMAA-Space/AraModernBert-Base-STS. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: NAMAA-Space/AraModernBert-Base-STS
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 dimensions
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: ModernBertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("yoriis/NAMAA-retriever-tydi")
# Run inference
sentences = [
    'متى قام عقبة بن نافع  ببناء جامع القيروان ؟',
    'الأحماض الكربوكسيلية هي أحماض عضوية تصنف في ظل وجود مجموعة الكربوكسيل الوظيفية (COOH)، كما أنها تندرج تحت تصنيف العالمان (برونستد ولوري) للأحماض، حيث تقوم بمنح البروتون. صيغتها العامة هي R-COOH. حيث R مستبدل من الممكن أن تكون إما جذر ألكيلي أو ذرة هيدروجين، وهي منتشرة في الطبيعة بشكل كبير.',
    'اليونيسف (بالإنكليزية:UNICEF) اختصارا ل"United Nations Children\'s Emergency Fund" أو منظمة الأمم المتحدة للطفولة. تأسس في 11 كانون الأول / ديسمبر 1946 بفضل تصويت بالإجماع في الدورة الأولى للجمعية العامة للأمم المتحدة. وتقرر وقتئذ أن يقدم صندوق الأمم المتحدة الدولي لرعاية الطفولة، كما كان يعرف آنذاك بتقديم إغاثة قصيرة الأجل للأطفال في فترة ما بعد الحرب العالمية الثانية في أوروبا.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 20,000 training samples
  • Columns: sentence_0, sentence_1, and label
  • Approximate statistics based on the first 1000 samples:
    sentence_0 sentence_1 label
    type string string float
    details
    • min: 6 tokens
    • mean: 9.89 tokens
    • max: 29 tokens
    • min: 16 tokens
    • mean: 128.18 tokens
    • max: 512 tokens
    • min: 0.0
    • mean: 0.33
    • max: 1.0
  • Samples:
    sentence_0 sentence_1 label
    متى ولد ليوناردو ديفنشي؟ 'عازف البيانو' هو فيلم من نوع الدراما التاريخية صدر عام 2002، من إخراج رومان بولانيسكي وتأليف رونالد هاورد، وبطولة أدريان برودي. الفيلم مأخوذ عن كتاب يحمل نفس الاسم لعازف البيانو البولندي اليهودي فلاديسلاف شبيلمان. 0.0
    متى ولد الرسول صلى الله عليه وسلم ؟ آسية بنت مزاحم هي امرأة فرعون موسى التي تلقت النبي موسى من اليم وآمنت به وأسندت رضاعته لأمه. 0.0
    ما هو التحصين؟ اللقاح هو مستحضر بيولوجي، يقدم المناعة الفاعلة المكتسبة تجاه مرض معين. يحوي اللقاح بشكل نموذجي على وسيط يشبه العضوية الدقيقة المسببة للمرض، وغالباً يصنع من الأشكال المضعفة أو المقتولة للجرثوم، أو من سمومه، أو أحد بروتيناته السطحية. يحرض هذا الوسيط الجهاز المناعي للجسم ليتعرف على هذا الجرثوم كمهدد له ويدمره، و يبقي لديه نسخة منه كي يستطيع الجهاز المناعي التعرف عليه ويحطمه بسهولة إذا هاجمه أي من هذه العضويات مرة أخرى. عملية تقديم اللقاح تدعى بعملية التلقيح. تمت دراسة فعالية التلقيح و التحقق منها بشكل جيد، على سبيل المثال لقاح الانفلونزا،[1] لقاح الفيروس الحليمومي البشري،[2] لقاح الجدري.[3] يعد التلقيح الطريقة الأولى الفعالة للوقاية من الأمراض المعدية.[4] المناعة واسعة الانتشار المأخوذة من اللقاحات مسؤولة بشكل كبير عن الاستئصال العالمي لمرض الجدري، والحد من أمراض أخرى كشلل الأطفال، والحصبة، والكزاز في معظم مناطق العالم. بينت منظمة الصحة العالمية أن اللقاحات المرخصة حالياً متاحة للوقاية أو للمساهمة في الوقاية وضبط 25 مرض معد.[5] يمكن أن تكون اللقاحات وقائية (مثال: تقي أو تحسن آثار مرض مست... 1.0
  • Loss: ContrastiveLoss with these parameters:
    {
        "distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE",
        "margin": 0.5,
        "size_average": true
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • multi_dataset_batch_sampler: round_robin

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1
  • num_train_epochs: 3
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: round_robin

Training Logs

Epoch Step Training Loss
0.4 500 0.0055
0.8 1000 0.0033
1.2 1500 0.0023
1.6 2000 0.0014
2.0 2500 0.0014
2.4 3000 0.0006
2.8 3500 0.0005

Framework Versions

  • Python: 3.11.13
  • Sentence Transformers: 4.1.0
  • Transformers: 4.53.3
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.9.0
  • Datasets: 4.0.0
  • Tokenizers: 0.21.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

ContrastiveLoss

@inproceedings{hadsell2006dimensionality,
    author={Hadsell, R. and Chopra, S. and LeCun, Y.},
    booktitle={2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06)},
    title={Dimensionality Reduction by Learning an Invariant Mapping},
    year={2006},
    volume={2},
    number={},
    pages={1735-1742},
    doi={10.1109/CVPR.2006.100}
}
Downloads last month
7
Safetensors
Model size
149M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for yoriis/NAMAA-retriever-tydi

Finetuned
(6)
this model
Finetunes
2 models