SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2

This is a sentence-transformers model finetuned from sentence-transformers/all-MiniLM-L6-v2 on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: sentence-transformers/all-MiniLM-L6-v2
  • Maximum Sequence Length: 256 tokens
  • Output Dimensionality: 384 dimensions
  • Similarity Function: Cosine Similarity
  • Training Dataset:
    • json

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("GbrlOl/ft-all-MiniLM-L6-v2-geotechnical-semanticidad-test-3")
# Run inference
sentences = [
    '¿Cuál es el público objetivo al que irá dirigida la información referida al cierre de la planta?',
    'Plan de Cierre PAG Planta Catemu \nCompañía Explotadora de Minas (CEMIN) \n \n Rev. 0 | 20-04-18 156 | 158 \n12 PROGRAMA DE DIFUSIÓN \n \nA continuación se describe el programa de difusión para el Plan de Cierre de la Planta Catemu.  \n \n12.1 Objetivos del programa de difusión \n \nEl programa de difusión del Plan de Cierre de la Planta Catemu contempla los siguientes objetivos:  \n \n\uf0a7 Comunicar claramente los alcances del cierre de la faena y los planes asociados;  \n\uf0a7 Generar confianza y credibilidad en los distintos públicos relevantes;  \n\uf0a7 Conseguir que el tema sea socializado paulatinamente, incluso por los medios de comunicación;  \n\uf0a7 Recoger dudas e inquietudes desde la comunidad y público de interés, además de tener espacio para \nresponder. \n \n \n12.2 Público objetivo \n \nEl público objetivo a quién irá dirigida la información refer ida al cierre de la planta corresponde a aquellos \nque se encuentren dentro de área de influencia de la faena. La localidad más cercana a la Planta Catemu, y \nprincipal poblado que forma parte del área de influencia de la planta, corresponde a la comuna de C atemu, \ndistante aproximadamente a 2,5 kilómetros. \n \nAdemás se contempla dentro del público objetivo a las autoridades comunales y regionales, medios de \ncomunicación y a los propios trabajadores de la Planta (quienes serán los primeros en ser informados).  \n \n \n12.3 Estrategia de implementación \n \nA nivel general, la estrategia de implementación para la difusión del programa de cierre de la Planta Catemu \nconsidera las siguientes acciones: \n \n\uf0a7 Comunicados y gestión de prensa \n\uf0a7 Reportajes en los medios locales, internos y externos \n\uf0a7 Profundizar programas comunitarios vinculados al medio ambiente con el objetivo de minimizar los \nefectos que tendrá el Plan de Cierre.',
    'En Adenda Nº 1 el titular señala que  “las aguas que infiltren a través del depósito de relaves filtrados \n(aguas de contacto) serán recogidas por el sistema de drenaje basal y se mezclaran con las aguas que \nemergen desde el acuífero que subyace en la zona de emplazamiento del depósito. La mezcla será \ndescargada (en D) al curso de agua que se ubica aguas abajo del depósito de relaves, el que después de \nrecorrer unos 500 metros descarga al estero San Antonio. Como se puede apreciar en el Anexo B de la \nDIA, y que es nuevamente presentado con mayores detalles en el Anexo A de la presente Adenda, no \nexisten efectos significativos sobre los recursos hídricos del sector, producto de esta descarga. Sin \nperjuicio de lo anterior, en el caso que los monitoreos detecten que el agua proveniente del Sistema de \nDrenaje Basal no se comporte de acuerdo a lo esperado, estas aguas pueden ser derivadas a la piscina \nde sedimentación para luego ser consumidas en la Planta Concentradora o ser enviadas al sistema de \nmanejo de aguas minas (aguas de contacto) que posee SCMET y que se encuentra debidamente \nautorizado .”  \nCalidad de las Aguas  \nAdenda N°2 SCMET propone que los niveles de calidad que detonaran el envío de las aguas de contacto, \nrecolectadas por el Sistema de Drenaje Basal, hacia la Piscina de Sedimentación sean la superación de \numbrales (en el estero San Antonio aguas debajo de la confluencia con el cauce receptor de las aguas de',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

json

  • Dataset: json
  • Size: 1,631 training samples
  • Columns: query, sentence, and label
  • Approximate statistics based on the first 1000 samples:
    query sentence label
    type string string int
    details
    • min: 5 tokens
    • mean: 25.07 tokens
    • max: 69 tokens
    • min: 44 tokens
    • mean: 233.37 tokens
    • max: 256 tokens
    • 0: ~60.20%
    • 1: ~39.80%
  • Samples:
    query sentence label
    se detallan antecedentes hidrogeológicos? Familias típicas son las tetracondráceas, centrolepidáceas, eucrifiáceas, donatiáceas, etc. Hay
    una familia endémica, la misodendrácea, y numerosos géneros endémicos: Fitzroya, Austrocedrus,
    0
    ¿Se utilizaron antecedentes hidrogeológicos? En el área de las quebradas las especies encontradas corresponden a fauna altiplánica típica
    descrita para otros ambientes similares de la Cordillera de Domeyko, como son Río Frío o el
    Salar de Punta Negra, estando ausente casi en su totalidad el componente faunístico asociado
    a cuerpos de agua, como vegas, bofedales y sal ares, que se encuentran en terrenos planos o
    de escasa pendiente.

    Ocho de las especies encontradas están asociadas directamente a afloramientos de agua como
    son la perdicita cojón, tuco, la lauchita andina y la vizcacha, todos ellos herbívoros que comen
    brotes tiernos o raíces no disponibles en lugares de mayor aridez.

    También están la dormilona de nuca rojiza y el churrete de alas blancas, ambas aves
    insectívoras que encuentran su principal fuente de alimento en estos cuerpos de agua, y por
    último la perdicita cordillerana que está asociada a bofedales, bordes de salares o vegas alto
    andinas y la vicuña que depende en forma directa de estos aflorami...
    0
    Indica si se utiliza Proctor Modificado, o Normal o Estándar para compactar el relave filtrado, y cuál es el nivel de compactación Retiro de Equipos
    La medida “retiro de equipos” considera desmontaje y retiro de los equipos existentes en las diferentes áreas de la
    planta de procesos y en aquellas instalaciones de apoyo que los requieran. Esto se realizará con apoyo de equipos
    mecánicos. Dentro de esta medida de cierre se considera la actividad de carguío, transporte y disposición final de
    las estructuras retiradas como residuo industrial no peligroso en un sitio autorizado fuera de la faena.
    Retiro de Tubería
    Se considera el retiro de las tuberías que se encuentren sobre la superficie. Para el acueducto se considera que 2 de
    los 13 km estarán en superficie, por lo que deberán ser removidos.
    Señalización
    Se instalará señalización de advertencia de peligro en los accesos y perímetros del rajo, botaderos d e estériles y
    depósito de relaves filtrados, el trazado de los canales del sistema de manejo de aguas de no contacto, así como en
    los accesos a la faena y en el área de extracción de agua fresca. Esta...
    0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • learning_rate: 2e-05
  • num_train_epochs: 100
  • warmup_ratio: 0.1
  • fp16: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 100
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss
2.3902 100 4.8999
4.7805 200 2.6881
7.1463 300 0.9682
9.5366 400 0.2384
11.9268 500 0.1453
14.2927 600 0.2888
16.6829 700 0.1582
19.0488 800 0.0954
21.4390 900 0.1294
23.8293 1000 0.038
26.1951 1100 0.0455
28.5854 1200 0.049
30.9756 1300 0.0058
33.3415 1400 0.0023
35.7317 1500 0.0
38.0976 1600 0.0
40.4878 1700 0.0
42.8780 1800 0.0
45.2439 1900 0.0
47.6341 2000 0.0
50.0244 2100 0.0
52.3902 2200 0.0
54.7805 2300 0.0
57.1463 2400 0.0
59.5366 2500 0.0
61.9268 2600 0.0
64.2927 2700 0.0
66.6829 2800 0.0
69.0488 2900 0.0
71.4390 3000 0.0
73.8293 3100 0.0
76.1951 3200 0.0
78.5854 3300 0.0
80.9756 3400 0.0
83.3415 3500 0.0
85.7317 3600 0.0
88.0976 3700 0.0
90.4878 3800 0.0
92.8780 3900 0.0
95.2439 4000 0.0
97.6341 4100 0.0

Framework Versions

  • Python: 3.10.16
  • Sentence Transformers: 3.3.1
  • Transformers: 4.48.1
  • PyTorch: 2.5.1+cu124
  • Accelerate: 1.3.0
  • Datasets: 3.2.0
  • Tokenizers: 0.21.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

CoSENTLoss

@online{kexuefm-8847,
    title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
    author={Su Jianlin},
    year={2022},
    month={Jan},
    url={https://kexue.fm/archives/8847},
}
Downloads last month
19
Safetensors
Model size
22.7M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for GbrlOl/ft-all-MiniLM-L6-v2-geotechnical-semanticidad-test-3

Finetuned
(365)
this model