You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

pubmedbert-base-embeddings

This is a sentence-transformers model finetuned from NeuML/pubmedbert-base-embeddings on the pubmed_tr_10k dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: NeuML/pubmedbert-base-embeddings
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 dimensions
  • Similarity Function: Cosine Similarity
  • Training Dataset:
  • Language: tr
  • License: apache-2.0

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
    'Kuşlarda saldırganlık-ilişkili davranışlar. II. AA gen ürünlerinin hücresel ekspresyonu. B1-anti-B2 ve B2-anti-B1 allosera, sırasıyla, homozygot B1/1 ve B2/2 tavukların damar içi aşısı yoluyla, aşağıdaki kaynaklardan elde edilen B1/2 hücreleriyle immunizasyon sağlanarak üretildi: periferik kan lökositleri (PBL), eritrositler, timus hücreleri ve bursa hücreleri. Bu alloseralardan saflaştırılmış süspansiyonlar, hem kırmızı kan hücrelerini hem de orijinal verici türünün kan lenfositlerinin GVH reaktivitesini güçlü biçimde inhibe eden anti-B alloserumu antikorları üretti. Aynı dört kaynaktan hücreler kullanılarak yapılan sera emilim çalışmaları, bu antikorların GVH inhibisyonunu sağlayan antikorları tamamen uzaklaştırabildiğini gösterdi. Özellikle önemli bir gerçek, eritrositler ve lenfositlerde ortak olan B-haplotype belirlenmiş antijenlerin, daha önce tanımlandığı gibi (Simonsen 1975), allo-saldırganlık loci gen ürünlerini içeriyor olabileceğidir.',
    'B1-anti-B2 ve B2-anti-B1 alloseralardan elde edilen antikorların üretiminde hangi hücre kaynakları kullanılmıştır?',
    'Metinde incelenen hormon ile yağ hücrelerindeki adenilat siklaz sistemi arasındaki etkileşimin amacı nedir?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

Metric Value
cosine_accuracy@1 0.8144
cosine_accuracy@3 0.8782
cosine_accuracy@5 0.9022
cosine_accuracy@10 0.9281
cosine_precision@1 0.8144
cosine_precision@3 0.2927
cosine_precision@5 0.1804
cosine_precision@10 0.0928
cosine_recall@1 0.8144
cosine_recall@3 0.8782
cosine_recall@5 0.9022
cosine_recall@10 0.9281
cosine_ndcg@10 0.8713
cosine_mrr@10 0.8531
cosine_map@100 0.8547

Training Details

Training Dataset

pubmed_tr_10k

  • Dataset: pubmed_tr_10k at 7c6016f
  • Size: 10,001 training samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 43 tokens
    • mean: 401.5 tokens
    • max: 512 tokens
    • min: 15 tokens
    • mean: 44.33 tokens
    • max: 91 tokens
  • Samples:
    positive anchor
    Bakteriyofaj P22'nin baz plaket parçalarının enzimik ve moleküler özellikleri. Substrat olarak 14C ile işaretlenmiş Salmonella bakteriyel hücreleri kullanılarak, P22 firkası baz plaket parçalarının enzimik ve moleküler özellikleri incelendi. Baz plaket parçası, Salmonella typhimurium, Salmonella schottmuellerie ve Salmonella typhi’nin O-antijenini kapsamlı şekilde kesen tek bir protein türünden oluşuyordu; ayrıcalıklı olarak Salmonella typhimurium ve Salmonella schottmuellerie’nin O-antijenini, Salmonella typhi’den biraz daha yavaş bir hızda kesiyor ve indirgenmiş uçta rhamnose bulunan oligoşaride ürünler salıyordu. P22’ya lizogenik olan bir Salmonella typhimurium suşunda ise çok daha az kesme gerçekleşti ve Salmonella anatum, Salmonella newington ve Salmonella minneapolis üzerinde ise anlamlı bir reaksiyon gözlenmedi. Baz plaket parçası enzim, çok ısıya dayanıklı bir protein olup, 85 derece C’de 5 dakika boyunca muamele sonrası sadece %10-20 kayıp gözlemlendi. Enzimin pH optimali yakl... P22 baz plaket parçasının enzimik özellikleri nelerdir ve hangi substratları keser?
    Fare T ve B lenfositlerinin nakil karşıtı reaksiyona katılımı. CBA farelerinin dalak veya lenf nodu hücreleri, kısmi dozda ışınlanmış (CBAXC57BL/6)F1 farelerine nakledildi; bu, nakil karşıtı reaksiyonun (GVHR) gelişmesine neden oldu. Lenfositler, fare T ve B lenfositlerine karşı spesifik serumlar ile in vitro muamele edildikten sonra bu reaksiyonu gerçekleştirme yeteneklerini kaybetti. Görünüşe göre, farelerde GVHR'nin gelişimi, T ve B lenfositlerinin işbirlikçi etkileşimiyle bağlantılıydı. Farelerde nakil karşıtı reaksiyonun (GVHR) gelişmesi hangi hücrelerin katılımıyla ilişkilidir?
    2,3-diphosphoglycerat'in insan kanındaki tamponlama özellikleri üzerindeki etkisi: kırmızı kan hücresi zarının rolü. İnsan kanının tamponlama özellikleri ve hücre dışı ile hücre içi pH (deltapHi/deltapHe) arasındaki ilişkinin eğimi (eğimi) üzerindeki 2,3-diphosphoglycerat (2,3-DPG, 0.5-21 mikromol/g hücre) konsantrasyonunun etkisi incelendi. Sonuçlar, 2,3-DPG'nin Donnan oranı rH+ = H+e/H+i üzerindeki etkisiyle ilgili önceki bulgularla bağlantılı olarak değerlendirildi. deltapHi/deltapHe değeri, kırmızı kan hücresindeki 2,3-DPG miktarının artmasıyla ve ekstrasellüler pH'nın yükselmesiyle azalmaktadır. deltapHi/deltapHe ile rH+ birbirine aşağıdaki ampirik denklemle bağlanabilir: deltapHi/deltapHe = 1 + log rH+ = 1 + pHi - pHe. Bu denklemin geçerliliği, Donnan oranı rH+'nin 0.3 ile 1 arasında değiştiği koşullarla sınırlı görünmektedir; bu değişiklikler ya 2,3-DPG gibi tamponlayıcı anyonların kırmızı kan hücrelerindeki konsantrasyonundaki değişiklikler ya da ekzosellüler pH'daki değişiklik... 2,3-diphosphoglycerat (2,3-DPG) konsantrasyonunun artması kırmızı kan hücresinde deltapHi/deltapHe değerine nasıl etki eder?
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 16
  • gradient_accumulation_steps: 16
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • lr_scheduler_type: cosine
  • warmup_ratio: 0.1
  • bf16: True
  • tf32: True
  • load_best_model_at_end: True
  • optim: adamw_torch_fused
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 16
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: cosine
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: True
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss dim_768_cosine_ndcg@10
0.5112 10 1.2023 -
1.0 20 0.2711 0.8182
1.5112 30 0.1766 -
2.0 40 0.1464 0.8500
2.5112 50 0.1112 -
3.0 60 0.0984 0.8614
3.5112 70 0.087 -
4.0 80 0.0791 0.8691
4.5112 90 0.0811 -
5.0 100 0.0726 0.8713
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.11.13
  • Sentence Transformers: 4.1.0
  • Transformers: 4.53.1
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.8.1
  • Datasets: 4.0.0
  • Tokenizers: 0.21.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
18
Safetensors
Model size
109M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for SMARTICT/pubmedbert-base-embeddings-tr-pubmed-10k

Dataset used to train SMARTICT/pubmedbert-base-embeddings-tr-pubmed-10k

Collection including SMARTICT/pubmedbert-base-embeddings-tr-pubmed-10k

Evaluation results