PyLate model based on Speedsy/turkish-multilingual-e5-small-32768

This is a PyLate model finetuned from Speedsy/turkish-multilingual-e5-small-32768 on the train dataset. It maps sentences & paragraphs to sequences of 128-dimensional dense vectors and can be used for semantic textual similarity using the MaxSim operator.

Model Details

Model Description

Model Sources

Full Model Architecture

ColBERT(
  (0): Transformer({'max_seq_length': 179, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Dense({'in_features': 384, 'out_features': 128, 'bias': False, 'activation_function': 'torch.nn.modules.linear.Identity'})
)

Usage

First install the PyLate library:

pip install -U pylate

Retrieval

PyLate provides a streamlined interface to index and retrieve documents using ColBERT models. The index leverages the Voyager HNSW index to efficiently handle document embeddings and enable fast retrieval.

Indexing documents

First, load the ColBERT model and initialize the Voyager index, then encode and index your documents:

from pylate import indexes, models, retrieve

# Step 1: Load the ColBERT model
model = models.ColBERT(
    model_name_or_path=pylate_model_id,
)

# Step 2: Initialize the Voyager index
index = indexes.Voyager(
    index_folder="pylate-index",
    index_name="index",
    override=True,  # This overwrites the existing index if any
)

# Step 3: Encode the documents
documents_ids = ["1", "2", "3"]
documents = ["document 1 text", "document 2 text", "document 3 text"]

documents_embeddings = model.encode(
    documents,
    batch_size=32,
    is_query=False,  # Ensure that it is set to False to indicate that these are documents, not queries
    show_progress_bar=True,
)

# Step 4: Add document embeddings to the index by providing embeddings and corresponding ids
index.add_documents(
    documents_ids=documents_ids,
    documents_embeddings=documents_embeddings,
)

Note that you do not have to recreate the index and encode the documents every time. Once you have created an index and added the documents, you can re-use the index later by loading it:

# To load an index, simply instantiate it with the correct folder/name and without overriding it
index = indexes.Voyager(
    index_folder="pylate-index",
    index_name="index",
)

Retrieving top-k documents for queries

Once the documents are indexed, you can retrieve the top-k most relevant documents for a given set of queries. To do so, initialize the ColBERT retriever with the index you want to search in, encode the queries and then retrieve the top-k documents to get the top matches ids and relevance scores:

# Step 1: Initialize the ColBERT retriever
retriever = retrieve.ColBERT(index=index)

# Step 2: Encode the queries
queries_embeddings = model.encode(
    ["query for document 3", "query for document 1"],
    batch_size=32,
    is_query=True,  #  # Ensure that it is set to False to indicate that these are queries
    show_progress_bar=True,
)

# Step 3: Retrieve top-k documents
scores = retriever.retrieve(
    queries_embeddings=queries_embeddings,
    k=10,  # Retrieve the top 10 matches for each query
)

Reranking

If you only want to use the ColBERT model to perform reranking on top of your first-stage retrieval pipeline without building an index, you can simply use rank function and pass the queries and documents to rerank:

from pylate import rank, models

queries = [
    "query A",
    "query B",
]

documents = [
    ["document A", "document B"],
    ["document 1", "document C", "document B"],
]

documents_ids = [
    [1, 2],
    [1, 3, 2],
]

model = models.ColBERT(
    model_name_or_path=pylate_model_id,
)

queries_embeddings = model.encode(
    queries,
    is_query=True,
)

documents_embeddings = model.encode(
    documents,
    is_query=False,
)

reranked_documents = rank.rerank(
    documents_ids=documents_ids,
    queries_embeddings=queries_embeddings,
    documents_embeddings=documents_embeddings,
)

Evaluation

Metrics

Py Late Information Retrieval

  • Dataset: ['NanoDBPedia', 'NanoFiQA2018', 'NanoHotpotQA', 'NanoMSMARCO', 'NanoNQ', 'NanoSCIDOCS']
  • Evaluated with pylate.evaluation.pylate_information_retrieval_evaluator.PyLateInformationRetrievalEvaluator
Metric NanoDBPedia NanoFiQA2018 NanoHotpotQA NanoMSMARCO NanoNQ NanoSCIDOCS
MaxSim_accuracy@1 0.82 0.4 0.86 0.42 0.56 0.32
MaxSim_accuracy@3 0.88 0.54 0.94 0.56 0.72 0.52
MaxSim_accuracy@5 0.94 0.6 0.96 0.62 0.76 0.6
MaxSim_accuracy@10 0.98 0.66 0.98 0.74 0.82 0.78
MaxSim_precision@1 0.82 0.4 0.86 0.42 0.56 0.32
MaxSim_precision@3 0.6467 0.2333 0.5133 0.1867 0.2467 0.2533
MaxSim_precision@5 0.612 0.176 0.332 0.124 0.156 0.216
MaxSim_precision@10 0.532 0.11 0.176 0.074 0.09 0.156
MaxSim_recall@1 0.1019 0.2234 0.43 0.42 0.52 0.0677
MaxSim_recall@3 0.1816 0.3453 0.77 0.56 0.68 0.1567
MaxSim_recall@5 0.2447 0.4119 0.83 0.62 0.72 0.2217
MaxSim_recall@10 0.3744 0.4947 0.88 0.74 0.8 0.3187
MaxSim_ndcg@10 0.6654 0.4147 0.8252 0.5642 0.6712 0.2991
MaxSim_mrr@10 0.8667 0.4808 0.8998 0.5105 0.6514 0.4619
MaxSim_map@100 0.5238 0.3495 0.7612 0.5209 0.6216 0.2234

Pylate Custom Nano BEIR

  • Dataset: NanoBEIR_mean
  • Evaluated with pylate_nano_beir_evaluator.PylateCustomNanoBEIREvaluator
Metric Value
MaxSim_accuracy@1 0.5633
MaxSim_accuracy@3 0.6933
MaxSim_accuracy@5 0.7467
MaxSim_accuracy@10 0.8267
MaxSim_precision@1 0.5633
MaxSim_precision@3 0.3467
MaxSim_precision@5 0.2693
MaxSim_precision@10 0.1897
MaxSim_recall@1 0.2938
MaxSim_recall@3 0.4489
MaxSim_recall@5 0.508
MaxSim_recall@10 0.6013
MaxSim_ndcg@10 0.5733
MaxSim_mrr@10 0.6452
MaxSim_map@100 0.5001

Training Details

Training Dataset

train

  • Dataset: train at b9b0f7f
  • Size: 798,036 training samples
  • Columns: query_id, document_ids, and scores
  • Approximate statistics based on the first 1000 samples:
    query_id document_ids scores
    type string list list
    details
    • min: 4 tokens
    • mean: 5.82 tokens
    • max: 6 tokens
    • size: 32 elements
    • size: 32 elements
  • Samples:
    query_id document_ids scores
    817836 ['2716076', '6741935', '2681109', '5562684', '3507339', ...] [1.0, 0.7059561610221863, 0.21702419221401215, 0.38270196318626404, 0.20812414586544037, ...]
    1045170 ['5088671', '2953295', '8783471', '4268439', '6339935', ...] [1.0, 0.6493034362792969, 0.0692221149802208, 0.17963139712810516, 0.6697239875793457, ...]
    1154488 ['6498614', '3770829', '1060712', '2590533', '7672044', ...] [0.9497447609901428, 0.6662212610244751, 0.7423420548439026, 1.0, 0.6580896973609924, ...]
  • Loss: pylate.losses.distillation.Distillation

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 16
  • learning_rate: 3e-05
  • num_train_epochs: 1
  • bf16: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 3e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 1
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss NanoDBPedia_MaxSim_ndcg@10 NanoFiQA2018_MaxSim_ndcg@10 NanoHotpotQA_MaxSim_ndcg@10 NanoMSMARCO_MaxSim_ndcg@10 NanoNQ_MaxSim_ndcg@10 NanoSCIDOCS_MaxSim_ndcg@10 NanoBEIR_mean_MaxSim_ndcg@10
0.0004 20 0.0321 - - - - - - -
0.0008 40 0.0316 - - - - - - -
0.0012 60 0.0305 - - - - - - -
0.0016 80 0.0298 - - - - - - -
0.0020 100 0.0291 - - - - - - -
0.0024 120 0.0286 - - - - - - -
0.0028 140 0.0268 - - - - - - -
0.0032 160 0.0262 - - - - - - -
0.0036 180 0.0282 - - - - - - -
0.0040 200 0.0264 - - - - - - -
0.0044 220 0.0257 - - - - - - -
0.0048 240 0.0267 - - - - - - -
0.0052 260 0.026 - - - - - - -
0.0056 280 0.0258 - - - - - - -
0.0060 300 0.025 - - - - - - -
0.0064 320 0.0238 - - - - - - -
0.0068 340 0.0242 - - - - - - -
0.0072 360 0.0256 - - - - - - -
0.0076 380 0.0259 - - - - - - -
0.0080 400 0.0254 - - - - - - -
0.0084 420 0.0245 - - - - - - -
0.0088 440 0.0253 - - - - - - -
0.0092 460 0.0252 - - - - - - -
0.0096 480 0.0238 - - - - - - -
0.0100 500 0.0259 0.6349 0.3320 0.7611 0.5174 0.6534 0.2696 0.5281
0.0104 520 0.0241 - - - - - - -
0.0108 540 0.024 - - - - - - -
0.0112 560 0.0247 - - - - - - -
0.0116 580 0.0234 - - - - - - -
0.0120 600 0.0244 - - - - - - -
0.0124 620 0.0261 - - - - - - -
0.0128 640 0.0267 - - - - - - -
0.0132 660 0.0246 - - - - - - -
0.0136 680 0.0243 - - - - - - -
0.0140 700 0.0231 - - - - - - -
0.0144 720 0.0247 - - - - - - -
0.0148 740 0.0228 - - - - - - -
0.0152 760 0.0239 - - - - - - -
0.0156 780 0.0255 - - - - - - -
0.0160 800 0.0238 - - - - - - -
0.0164 820 0.0249 - - - - - - -
0.0168 840 0.0249 - - - - - - -
0.0172 860 0.0239 - - - - - - -
0.0176 880 0.0247 - - - - - - -
0.0180 900 0.0257 - - - - - - -
0.0184 920 0.0248 - - - - - - -
0.0188 940 0.0235 - - - - - - -
0.0192 960 0.0232 - - - - - - -
0.0196 980 0.0229 - - - - - - -
0.0200 1000 0.024 0.6362 0.3393 0.7805 0.5170 0.6149 0.2639 0.5253
0.0204 1020 0.0233 - - - - - - -
0.0209 1040 0.0227 - - - - - - -
0.0213 1060 0.0237 - - - - - - -
0.0217 1080 0.0244 - - - - - - -
0.0221 1100 0.0225 - - - - - - -
0.0225 1120 0.023 - - - - - - -
0.0229 1140 0.0241 - - - - - - -
0.0233 1160 0.0248 - - - - - - -
0.0237 1180 0.0246 - - - - - - -
0.0241 1200 0.0256 - - - - - - -
0.0245 1220 0.0235 - - - - - - -
0.0249 1240 0.0221 - - - - - - -
0.0253 1260 0.024 - - - - - - -
0.0257 1280 0.0233 - - - - - - -
0.0261 1300 0.0233 - - - - - - -
0.0265 1320 0.0236 - - - - - - -
0.0269 1340 0.0231 - - - - - - -
0.0273 1360 0.0244 - - - - - - -
0.0277 1380 0.0225 - - - - - - -
0.0281 1400 0.0223 - - - - - - -
0.0285 1420 0.0245 - - - - - - -
0.0289 1440 0.0235 - - - - - - -
0.0293 1460 0.0244 - - - - - - -
0.0297 1480 0.0234 - - - - - - -
0.0301 1500 0.0238 0.6391 0.3643 0.7656 0.5385 0.6161 0.2763 0.5333
0.0305 1520 0.0234 - - - - - - -
0.0309 1540 0.0218 - - - - - - -
0.0313 1560 0.0226 - - - - - - -
0.0317 1580 0.0229 - - - - - - -
0.0321 1600 0.0234 - - - - - - -
0.0325 1620 0.0243 - - - - - - -
0.0329 1640 0.0234 - - - - - - -
0.0333 1660 0.0225 - - - - - - -
0.0337 1680 0.022 - - - - - - -
0.0341 1700 0.022 - - - - - - -
0.0345 1720 0.0225 - - - - - - -
0.0349 1740 0.023 - - - - - - -
0.0353 1760 0.0234 - - - - - - -
0.0357 1780 0.0242 - - - - - - -
0.0361 1800 0.0227 - - - - - - -
0.0365 1820 0.0228 - - - - - - -
0.0369 1840 0.0218 - - - - - - -
0.0373 1860 0.0236 - - - - - - -
0.0377 1880 0.0242 - - - - - - -
0.0381 1900 0.0234 - - - - - - -
0.0385 1920 0.0236 - - - - - - -
0.0389 1940 0.023 - - - - - - -
0.0393 1960 0.0228 - - - - - - -
0.0397 1980 0.0245 - - - - - - -
0.0401 2000 0.0228 0.6387 0.3644 0.7904 0.5583 0.6175 0.2700 0.5399
0.0405 2020 0.0232 - - - - - - -
0.0409 2040 0.0237 - - - - - - -
0.0413 2060 0.024 - - - - - - -
0.0417 2080 0.0235 - - - - - - -
0.0421 2100 0.0234 - - - - - - -
0.0425 2120 0.0222 - - - - - - -
0.0429 2140 0.0225 - - - - - - -
0.0433 2160 0.0229 - - - - - - -
0.0437 2180 0.0229 - - - - - - -
0.0441 2200 0.0237 - - - - - - -
0.0445 2220 0.0217 - - - - - - -
0.0449 2240 0.0224 - - - - - - -
0.0453 2260 0.0219 - - - - - - -
0.0457 2280 0.0227 - - - - - - -
0.0461 2300 0.025 - - - - - - -
0.0465 2320 0.0207 - - - - - - -
0.0469 2340 0.0216 - - - - - - -
0.0473 2360 0.023 - - - - - - -
0.0477 2380 0.0231 - - - - - - -
0.0481 2400 0.0226 - - - - - - -
0.0485 2420 0.0228 - - - - - - -
0.0489 2440 0.0229 - - - - - - -
0.0493 2460 0.0229 - - - - - - -
0.0497 2480 0.0233 - - - - - - -
0.0501 2500 0.0239 0.6457 0.3563 0.7980 0.5463 0.6192 0.2567 0.5370
0.0505 2520 0.0219 - - - - - - -
0.0509 2540 0.0225 - - - - - - -
0.0513 2560 0.0222 - - - - - - -
0.0517 2580 0.0224 - - - - - - -
0.0521 2600 0.0215 - - - - - - -
0.0525 2620 0.0229 - - - - - - -
0.0529 2640 0.0225 - - - - - - -
0.0533 2660 0.0211 - - - - - - -
0.0537 2680 0.0222 - - - - - - -
0.0541 2700 0.0215 - - - - - - -
0.0545 2720 0.022 - - - - - - -
0.0549 2740 0.0204 - - - - - - -
0.0553 2760 0.0225 - - - - - - -
0.0557 2780 0.0227 - - - - - - -
0.0561 2800 0.0225 - - - - - - -
0.0565 2820 0.0217 - - - - - - -
0.0569 2840 0.0216 - - - - - - -
0.0573 2860 0.0232 - - - - - - -
0.0577 2880 0.0224 - - - - - - -
0.0581 2900 0.0232 - - - - - - -
0.0585 2920 0.0225 - - - - - - -
0.0589 2940 0.0226 - - - - - - -
0.0593 2960 0.022 - - - - - - -
0.0597 2980 0.0209 - - - - - - -
0.0601 3000 0.021 0.6404 0.3743 0.7875 0.5578 0.6348 0.2602 0.5425
0.0605 3020 0.0245 - - - - - - -
0.0609 3040 0.0221 - - - - - - -
0.0613 3060 0.0221 - - - - - - -
0.0618 3080 0.0218 - - - - - - -
0.0622 3100 0.0226 - - - - - - -
0.0626 3120 0.0226 - - - - - - -
0.0630 3140 0.022 - - - - - - -
0.0634 3160 0.0219 - - - - - - -
0.0638 3180 0.0216 - - - - - - -
0.0642 3200 0.0215 - - - - - - -
0.0646 3220 0.0212 - - - - - - -
0.0650 3240 0.0231 - - - - - - -
0.0654 3260 0.0225 - - - - - - -
0.0658 3280 0.0218 - - - - - - -
0.0662 3300 0.0215 - - - - - - -
0.0666 3320 0.0223 - - - - - - -
0.0670 3340 0.0226 - - - - - - -
0.0674 3360 0.0236 - - - - - - -
0.0678 3380 0.0208 - - - - - - -
0.0682 3400 0.022 - - - - - - -
0.0686 3420 0.0219 - - - - - - -
0.0690 3440 0.0214 - - - - - - -
0.0694 3460 0.0207 - - - - - - -
0.0698 3480 0.0221 - - - - - - -
0.0702 3500 0.0217 0.6472 0.3610 0.7987 0.5436 0.6222 0.2854 0.5430
0.0706 3520 0.0205 - - - - - - -
0.0710 3540 0.0224 - - - - - - -
0.0714 3560 0.0212 - - - - - - -
0.0718 3580 0.0219 - - - - - - -
0.0722 3600 0.0218 - - - - - - -
0.0726 3620 0.0213 - - - - - - -
0.0730 3640 0.0228 - - - - - - -
0.0734 3660 0.0211 - - - - - - -
0.0738 3680 0.0223 - - - - - - -
0.0742 3700 0.0229 - - - - - - -
0.0746 3720 0.021 - - - - - - -
0.0750 3740 0.0226 - - - - - - -
0.0754 3760 0.0222 - - - - - - -
0.0758 3780 0.0221 - - - - - - -
0.0762 3800 0.0218 - - - - - - -
0.0766 3820 0.0206 - - - - - - -
0.0770 3840 0.0197 - - - - - - -
0.0774 3860 0.0211 - - - - - - -
0.0778 3880 0.022 - - - - - - -
0.0782 3900 0.0217 - - - - - - -
0.0786 3920 0.0227 - - - - - - -
0.0790 3940 0.0221 - - - - - - -
0.0794 3960 0.0213 - - - - - - -
0.0798 3980 0.0219 - - - - - - -
0.0802 4000 0.0221 0.6294 0.3605 0.7979 0.5457 0.6196 0.2792 0.5387
0.0806 4020 0.021 - - - - - - -
0.0810 4040 0.0208 - - - - - - -
0.0814 4060 0.0213 - - - - - - -
0.0818 4080 0.0218 - - - - - - -
0.0822 4100 0.0213 - - - - - - -
0.0826 4120 0.0231 - - - - - - -
0.0830 4140 0.0207 - - - - - - -
0.0834 4160 0.0217 - - - - - - -
0.0838 4180 0.0222 - - - - - - -
0.0842 4200 0.0218 - - - - - - -
0.0846 4220 0.0212 - - - - - - -
0.0850 4240 0.0225 - - - - - - -
0.0854 4260 0.0225 - - - - - - -
0.0858 4280 0.021 - - - - - - -
0.0862 4300 0.021 - - - - - - -
0.0866 4320 0.0219 - - - - - - -
0.0870 4340 0.0215 - - - - - - -
0.0874 4360 0.0214 - - - - - - -
0.0878 4380 0.0224 - - - - - - -
0.0882 4400 0.0223 - - - - - - -
0.0886 4420 0.0215 - - - - - - -
0.0890 4440 0.022 - - - - - - -
0.0894 4460 0.0214 - - - - - - -
0.0898 4480 0.0204 - - - - - - -
0.0902 4500 0.0213 0.6316 0.3537 0.8034 0.5434 0.6182 0.2672 0.5362
0.0906 4520 0.0217 - - - - - - -
0.0910 4540 0.0228 - - - - - - -
0.0914 4560 0.0203 - - - - - - -
0.0918 4580 0.0225 - - - - - - -
0.0922 4600 0.0208 - - - - - - -
0.0926 4620 0.0213 - - - - - - -
0.0930 4640 0.0206 - - - - - - -
0.0934 4660 0.0205 - - - - - - -
0.0938 4680 0.0242 - - - - - - -
0.0942 4700 0.0209 - - - - - - -
0.0946 4720 0.0209 - - - - - - -
0.0950 4740 0.0223 - - - - - - -
0.0954 4760 0.0197 - - - - - - -
0.0958 4780 0.021 - - - - - - -
0.0962 4800 0.0216 - - - - - - -
0.0966 4820 0.0217 - - - - - - -
0.0970 4840 0.0208 - - - - - - -
0.0974 4860 0.0208 - - - - - - -
0.0978 4880 0.0219 - - - - - - -
0.0982 4900 0.0212 - - - - - - -
0.0986 4920 0.022 - - - - - - -
0.0990 4940 0.0209 - - - - - - -
0.0994 4960 0.0219 - - - - - - -
0.0998 4980 0.0213 - - - - - - -
0.1002 5000 0.0215 0.6403 0.3864 0.8080 0.5766 0.6476 0.2759 0.5558
0.1006 5020 0.022 - - - - - - -
0.1010 5040 0.0215 - - - - - - -
0.1014 5060 0.0201 - - - - - - -
0.1018 5080 0.0202 - - - - - - -
0.1022 5100 0.021 - - - - - - -
0.1027 5120 0.0215 - - - - - - -
0.1031 5140 0.022 - - - - - - -
0.1035 5160 0.0208 - - - - - - -
0.1039 5180 0.0212 - - - - - - -
0.1043 5200 0.0217 - - - - - - -
0.1047 5220 0.0215 - - - - - - -
0.1051 5240 0.0215 - - - - - - -
0.1055 5260 0.0225 - - - - - - -
0.1059 5280 0.0216 - - - - - - -
0.1063 5300 0.0217 - - - - - - -
0.1067 5320 0.0209 - - - - - - -
0.1071 5340 0.0219 - - - - - - -
0.1075 5360 0.0205 - - - - - - -
0.1079 5380 0.0198 - - - - - - -
0.1083 5400 0.0211 - - - - - - -
0.1087 5420 0.0212 - - - - - - -
0.1091 5440 0.0209 - - - - - - -
0.1095 5460 0.0212 - - - - - - -
0.1099 5480 0.0214 - - - - - - -
0.1103 5500 0.0208 0.6468 0.3563 0.8034 0.5810 0.6422 0.2824 0.5520
0.1107 5520 0.0229 - - - - - - -
0.1111 5540 0.0194 - - - - - - -
0.1115 5560 0.0214 - - - - - - -
0.1119 5580 0.0223 - - - - - - -
0.1123 5600 0.0201 - - - - - - -
0.1127 5620 0.0206 - - - - - - -
0.1131 5640 0.0207 - - - - - - -
0.1135 5660 0.0211 - - - - - - -
0.1139 5680 0.0214 - - - - - - -
0.1143 5700 0.0212 - - - - - - -
0.1147 5720 0.0208 - - - - - - -
0.1151 5740 0.0202 - - - - - - -
0.1155 5760 0.0209 - - - - - - -
0.1159 5780 0.0211 - - - - - - -
0.1163 5800 0.021 - - - - - - -
0.1167 5820 0.0214 - - - - - - -
0.1171 5840 0.021 - - - - - - -
0.1175 5860 0.0202 - - - - - - -
0.1179 5880 0.0226 - - - - - - -
0.1183 5900 0.0206 - - - - - - -
0.1187 5920 0.0206 - - - - - - -
0.1191 5940 0.0208 - - - - - - -
0.1195 5960 0.0206 - - - - - - -
0.1199 5980 0.0212 - - - - - - -
0.1203 6000 0.0211 0.6549 0.3796 0.8105 0.5597 0.6300 0.2702 0.5508
0.1207 6020 0.0229 - - - - - - -
0.1211 6040 0.0217 - - - - - - -
0.1215 6060 0.0211 - - - - - - -
0.1219 6080 0.021 - - - - - - -
0.1223 6100 0.0199 - - - - - - -
0.1227 6120 0.0211 - - - - - - -
0.1231 6140 0.021 - - - - - - -
0.1235 6160 0.0204 - - - - - - -
0.1239 6180 0.0201 - - - - - - -
0.1243 6200 0.0212 - - - - - - -
0.1247 6220 0.0205 - - - - - - -
0.1251 6240 0.0204 - - - - - - -
0.1255 6260 0.0194 - - - - - - -
0.1259 6280 0.0211 - - - - - - -
0.1263 6300 0.0209 - - - - - - -
0.1267 6320 0.0208 - - - - - - -
0.1271 6340 0.0205 - - - - - - -
0.1275 6360 0.0209 - - - - - - -
0.1279 6380 0.0206 - - - - - - -
0.1283 6400 0.0209 - - - - - - -
0.1287 6420 0.0215 - - - - - - -
0.1291 6440 0.0209 - - - - - - -
0.1295 6460 0.0218 - - - - - - -
0.1299 6480 0.0206 - - - - - - -
0.1303 6500 0.0204 0.6691 0.3650 0.8140 0.5595 0.6332 0.2755 0.5527
0.1307 6520 0.0205 - - - - - - -
0.1311 6540 0.0206 - - - - - - -
0.1315 6560 0.0203 - - - - - - -
0.1319 6580 0.0212 - - - - - - -
0.1323 6600 0.0203 - - - - - - -
0.1327 6620 0.0205 - - - - - - -
0.1331 6640 0.0206 - - - - - - -
0.1335 6660 0.0202 - - - - - - -
0.1339 6680 0.0206 - - - - - - -
0.1343 6700 0.0188 - - - - - - -
0.1347 6720 0.0216 - - - - - - -
0.1351 6740 0.0208 - - - - - - -
0.1355 6760 0.0213 - - - - - - -
0.1359 6780 0.022 - - - - - - -
0.1363 6800 0.0213 - - - - - - -
0.1367 6820 0.0224 - - - - - - -
0.1371 6840 0.0206 - - - - - - -
0.1375 6860 0.0216 - - - - - - -
0.1379 6880 0.0212 - - - - - - -
0.1383 6900 0.0205 - - - - - - -
0.1387 6920 0.0208 - - - - - - -
0.1391 6940 0.0199 - - - - - - -
0.1395 6960 0.0199 - - - - - - -
0.1399 6980 0.0203 - - - - - - -
0.1403 7000 0.0221 0.6622 0.3682 0.8007 0.5170 0.6527 0.2679 0.5448
0.1407 7020 0.0211 - - - - - - -
0.1411 7040 0.0207 - - - - - - -
0.1415 7060 0.0202 - - - - - - -
0.1419 7080 0.0215 - - - - - - -
0.1423 7100 0.0215 - - - - - - -
0.1427 7120 0.0198 - - - - - - -
0.1431 7140 0.0196 - - - - - - -
0.1436 7160 0.0207 - - - - - - -
0.1440 7180 0.0208 - - - - - - -
0.1444 7200 0.0209 - - - - - - -
0.1448 7220 0.0196 - - - - - - -
0.1452 7240 0.0207 - - - - - - -
0.1456 7260 0.0202 - - - - - - -
0.1460 7280 0.0206 - - - - - - -
0.1464 7300 0.0216 - - - - - - -
0.1468 7320 0.0218 - - - - - - -
0.1472 7340 0.0197 - - - - - - -
0.1476 7360 0.0203 - - - - - - -
0.1480 7380 0.02 - - - - - - -
0.1484 7400 0.0188 - - - - - - -
0.1488 7420 0.0211 - - - - - - -
0.1492 7440 0.0193 - - - - - - -
0.1496 7460 0.0207 - - - - - - -
0.1500 7480 0.0198 - - - - - - -
0.1504 7500 0.0206 0.6547 0.3642 0.7965 0.5407 0.6422 0.2615 0.5433
0.1508 7520 0.021 - - - - - - -
0.1512 7540 0.0191 - - - - - - -
0.1516 7560 0.0197 - - - - - - -
0.1520 7580 0.0212 - - - - - - -
0.1524 7600 0.0202 - - - - - - -
0.1528 7620 0.0196 - - - - - - -
0.1532 7640 0.021 - - - - - - -
0.1536 7660 0.0202 - - - - - - -
0.1540 7680 0.0203 - - - - - - -
0.1544 7700 0.0209 - - - - - - -
0.1548 7720 0.0216 - - - - - - -
0.1552 7740 0.0209 - - - - - - -
0.1556 7760 0.0187 - - - - - - -
0.1560 7780 0.0201 - - - - - - -
0.1564 7800 0.0203 - - - - - - -
0.1568 7820 0.0206 - - - - - - -
0.1572 7840 0.0209 - - - - - - -
0.1576 7860 0.02 - - - - - - -
0.1580 7880 0.0201 - - - - - - -
0.1584 7900 0.0209 - - - - - - -
0.1588 7920 0.0203 - - - - - - -
0.1592 7940 0.0202 - - - - - - -
0.1596 7960 0.0212 - - - - - - -
0.1600 7980 0.0203 - - - - - - -
0.1604 8000 0.0205 0.6567 0.3738 0.8159 0.5334 0.6567 0.2752 0.5520
0.1608 8020 0.0211 - - - - - - -
0.1612 8040 0.02 - - - - - - -
0.1616 8060 0.0197 - - - - - - -
0.1620 8080 0.021 - - - - - - -
0.1624 8100 0.0191 - - - - - - -
0.1628 8120 0.0206 - - - - - - -
0.1632 8140 0.0205 - - - - - - -
0.1636 8160 0.0202 - - - - - - -
0.1640 8180 0.0206 - - - - - - -
0.1644 8200 0.021 - - - - - - -
0.1648 8220 0.0191 - - - - - - -
0.1652 8240 0.0197 - - - - - - -
0.1656 8260 0.0204 - - - - - - -
0.1660 8280 0.0201 - - - - - - -
0.1664 8300 0.0197 - - - - - - -
0.1668 8320 0.019 - - - - - - -
0.1672 8340 0.0208 - - - - - - -
0.1676 8360 0.0209 - - - - - - -
0.1680 8380 0.02 - - - - - - -
0.1684 8400 0.0201 - - - - - - -
0.1688 8420 0.0192 - - - - - - -
0.1692 8440 0.0201 - - - - - - -
0.1696 8460 0.0191 - - - - - - -
0.1700 8480 0.0197 - - - - - - -
0.1704 8500 0.0205 0.6581 0.3874 0.8090 0.5373 0.6424 0.2708 0.5508
0.1708 8520 0.0209 - - - - - - -
0.1712 8540 0.0203 - - - - - - -
0.1716 8560 0.02 - - - - - - -
0.1720 8580 0.0205 - - - - - - -
0.1724 8600 0.0195 - - - - - - -
0.1728 8620 0.0194 - - - - - - -
0.1732 8640 0.0185 - - - - - - -
0.1736 8660 0.0208 - - - - - - -
0.1740 8680 0.0202 - - - - - - -
0.1744 8700 0.0203 - - - - - - -
0.1748 8720 0.0218 - - - - - - -
0.1752 8740 0.0203 - - - - - - -
0.1756 8760 0.0193 - - - - - - -
0.1760 8780 0.0207 - - - - - - -
0.1764 8800 0.0197 - - - - - - -
0.1768 8820 0.0195 - - - - - - -
0.1772 8840 0.0204 - - - - - - -
0.1776 8860 0.0215 - - - - - - -
0.1780 8880 0.0204 - - - - - - -
0.1784 8900 0.0202 - - - - - - -
0.1788 8920 0.0187 - - - - - - -
0.1792 8940 0.0201 - - - - - - -
0.1796 8960 0.0184 - - - - - - -
0.1800 8980 0.0212 - - - - - - -
0.1804 9000 0.0196 0.6550 0.4075 0.8040 0.5462 0.6632 0.2663 0.5570
0.1808 9020 0.0199 - - - - - - -
0.1812 9040 0.02 - - - - - - -
0.1816 9060 0.0198 - - - - - - -
0.1820 9080 0.0224 - - - - - - -
0.1824 9100 0.0206 - - - - - - -
0.1828 9120 0.0207 - - - - - - -
0.1832 9140 0.0211 - - - - - - -
0.1836 9160 0.02 - - - - - - -
0.1840 9180 0.0215 - - - - - - -
0.1845 9200 0.0218 - - - - - - -
0.1849 9220 0.0202 - - - - - - -
0.1853 9240 0.0212 - - - - - - -
0.1857 9260 0.0206 - - - - - - -
0.1861 9280 0.0198 - - - - - - -
0.1865 9300 0.02 - - - - - - -
0.1869 9320 0.0197 - - - - - - -
0.1873 9340 0.02 - - - - - - -
0.1877 9360 0.0195 - - - - - - -
0.1881 9380 0.0195 - - - - - - -
0.1885 9400 0.0197 - - - - - - -
0.1889 9420 0.0188 - - - - - - -
0.1893 9440 0.0203 - - - - - - -
0.1897 9460 0.0208 - - - - - - -
0.1901 9480 0.02 - - - - - - -
0.1905 9500 0.02 0.6675 0.4007 0.8147 0.5463 0.6377 0.2822 0.5582
0.1909 9520 0.0207 - - - - - - -
0.1913 9540 0.0184 - - - - - - -
0.1917 9560 0.0199 - - - - - - -
0.1921 9580 0.0203 - - - - - - -
0.1925 9600 0.0201 - - - - - - -
0.1929 9620 0.0213 - - - - - - -
0.1933 9640 0.0206 - - - - - - -
0.1937 9660 0.0207 - - - - - - -
0.1941 9680 0.0212 - - - - - - -
0.1945 9700 0.0194 - - - - - - -
0.1949 9720 0.0196 - - - - - - -
0.1953 9740 0.0191 - - - - - - -
0.1957 9760 0.0198 - - - - - - -
0.1961 9780 0.0193 - - - - - - -
0.1965 9800 0.0208 - - - - - - -
0.1969 9820 0.0219 - - - - - - -
0.1973 9840 0.0205 - - - - - - -
0.1977 9860 0.0205 - - - - - - -
0.1981 9880 0.0207 - - - - - - -
0.1985 9900 0.0215 - - - - - - -
0.1989 9920 0.0204 - - - - - - -
0.1993 9940 0.0192 - - - - - - -
0.1997 9960 0.019 - - - - - - -
0.2001 9980 0.0199 - - - - - - -
0.2005 10000 0.0214 0.6493 0.4120 0.7894 0.5650 0.6196 0.2777 0.5522
0.2009 10020 0.0197 - - - - - - -
0.2013 10040 0.0207 - - - - - - -
0.2017 10060 0.019 - - - - - - -
0.2021 10080 0.0203 - - - - - - -
0.2025 10100 0.0194 - - - - - - -
0.2029 10120 0.0206 - - - - - - -
0.2033 10140 0.0202 - - - - - - -
0.2037 10160 0.0197 - - - - - - -
0.2041 10180 0.0197 - - - - - - -
0.2045 10200 0.0202 - - - - - - -
0.2049 10220 0.0199 - - - - - - -
0.2053 10240 0.0198 - - - - - - -
0.2057 10260 0.0197 - - - - - - -
0.2061 10280 0.0203 - - - - - - -
0.2065 10300 0.0204 - - - - - - -
0.2069 10320 0.0197 - - - - - - -
0.2073 10340 0.0185 - - - - - - -
0.2077 10360 0.0198 - - - - - - -
0.2081 10380 0.0204 - - - - - - -
0.2085 10400 0.0205 - - - - - - -
0.2089 10420 0.0207 - - - - - - -
0.2093 10440 0.0202 - - - - - - -
0.2097 10460 0.0204 - - - - - - -
0.2101 10480 0.0197 - - - - - - -
0.2105 10500 0.0199 0.6493 0.4119 0.7777 0.5514 0.6370 0.2779 0.5509
0.2109 10520 0.0202 - - - - - - -
0.2113 10540 0.0198 - - - - - - -
0.2117 10560 0.0195 - - - - - - -
0.2121 10580 0.0184 - - - - - - -
0.2125 10600 0.0193 - - - - - - -
0.2129 10620 0.02 - - - - - - -
0.2133 10640 0.0196 - - - - - - -
0.2137 10660 0.0193 - - - - - - -
0.2141 10680 0.0205 - - - - - - -
0.2145 10700 0.0199 - - - - - - -
0.2149 10720 0.0202 - - - - - - -
0.2153 10740 0.0194 - - - - - - -
0.2157 10760 0.0189 - - - - - - -
0.2161 10780 0.0196 - - - - - - -
0.2165 10800 0.0188 - - - - - - -
0.2169 10820 0.0186 - - - - - - -
0.2173 10840 0.0211 - - - - - - -
0.2177 10860 0.0199 - - - - - - -
0.2181 10880 0.0199 - - - - - - -
0.2185 10900 0.02 - - - - - - -
0.2189 10920 0.0208 - - - - - - -
0.2193 10940 0.0197 - - - - - - -
0.2197 10960 0.0178 - - - - - - -
0.2201 10980 0.0193 - - - - - - -
0.2205 11000 0.0192 0.6621 0.3919 0.7980 0.5520 0.6499 0.2946 0.5581
0.2209 11020 0.0198 - - - - - - -
0.2213 11040 0.0193 - - - - - - -
0.2217 11060 0.0192 - - - - - - -
0.2221 11080 0.0182 - - - - - - -
0.2225 11100 0.0195 - - - - - - -
0.2229 11120 0.02 - - - - - - -
0.2233 11140 0.0187 - - - - - - -
0.2237 11160 0.0212 - - - - - - -
0.2241 11180 0.0194 - - - - - - -
0.2245 11200 0.0196 - - - - - - -
0.2249 11220 0.0198 - - - - - - -
0.2253 11240 0.0205 - - - - - - -
0.2258 11260 0.0204 - - - - - - -
0.2262 11280 0.0202 - - - - - - -
0.2266 11300 0.0202 - - - - - - -
0.2270 11320 0.0195 - - - - - - -
0.2274 11340 0.0206 - - - - - - -
0.2278 11360 0.0201 - - - - - - -
0.2282 11380 0.0198 - - - - - - -
0.2286 11400 0.0192 - - - - - - -
0.2290 11420 0.0191 - - - - - - -
0.2294 11440 0.0206 - - - - - - -
0.2298 11460 0.0201 - - - - - - -
0.2302 11480 0.0209 - - - - - - -
0.2306 11500 0.0186 0.6607 0.3920 0.7937 0.5236 0.6571 0.2887 0.5526
0.2310 11520 0.0203 - - - - - - -
0.2314 11540 0.0191 - - - - - - -
0.2318 11560 0.0193 - - - - - - -
0.2322 11580 0.0196 - - - - - - -
0.2326 11600 0.0193 - - - - - - -
0.2330 11620 0.02 - - - - - - -
0.2334 11640 0.0189 - - - - - - -
0.2338 11660 0.0182 - - - - - - -
0.2342 11680 0.0196 - - - - - - -
0.2346 11700 0.0186 - - - - - - -
0.2350 11720 0.0195 - - - - - - -
0.2354 11740 0.0205 - - - - - - -
0.2358 11760 0.0198 - - - - - - -
0.2362 11780 0.0203 - - - - - - -
0.2366 11800 0.0198 - - - - - - -
0.2370 11820 0.0201 - - - - - - -
0.2374 11840 0.0193 - - - - - - -
0.2378 11860 0.0193 - - - - - - -
0.2382 11880 0.0195 - - - - - - -
0.2386 11900 0.0204 - - - - - - -
0.2390 11920 0.0204 - - - - - - -
0.2394 11940 0.0195 - - - - - - -
0.2398 11960 0.0196 - - - - - - -
0.2402 11980 0.0194 - - - - - - -
0.2406 12000 0.0196 0.6651 0.3931 0.8054 0.5421 0.6563 0.2969 0.5598
0.2410 12020 0.0189 - - - - - - -
0.2414 12040 0.0187 - - - - - - -
0.2418 12060 0.0202 - - - - - - -
0.2422 12080 0.0199 - - - - - - -
0.2426 12100 0.0187 - - - - - - -
0.2430 12120 0.0195 - - - - - - -
0.2434 12140 0.0192 - - - - - - -
0.2438 12160 0.0196 - - - - - - -
0.2442 12180 0.0197 - - - - - - -
0.2446 12200 0.0208 - - - - - - -
0.2450 12220 0.0196 - - - - - - -
0.2454 12240 0.0202 - - - - - - -
0.2458 12260 0.0207 - - - - - - -
0.2462 12280 0.0203 - - - - - - -
0.2466 12300 0.0191 - - - - - - -
0.2470 12320 0.0206 - - - - - - -
0.2474 12340 0.0215 - - - - - - -
0.2478 12360 0.0202 - - - - - - -
0.2482 12380 0.0199 - - - - - - -
0.2486 12400 0.0209 - - - - - - -
0.2490 12420 0.0197 - - - - - - -
0.2494 12440 0.0196 - - - - - - -
0.2498 12460 0.0196 - - - - - - -
0.2502 12480 0.019 - - - - - - -
0.2506 12500 0.0207 0.6614 0.3926 0.8131 0.5468 0.6544 0.2962 0.5608
0.2510 12520 0.0209 - - - - - - -
0.2514 12540 0.0195 - - - - - - -
0.2518 12560 0.0191 - - - - - - -
0.2522 12580 0.0207 - - - - - - -
0.2526 12600 0.0184 - - - - - - -
0.2530 12620 0.0198 - - - - - - -
0.2534 12640 0.0206 - - - - - - -
0.2538 12660 0.0191 - - - - - - -
0.2542 12680 0.0185 - - - - - - -
0.2546 12700 0.0193 - - - - - - -
0.2550 12720 0.02 - - - - - - -
0.2554 12740 0.0205 - - - - - - -
0.2558 12760 0.0194 - - - - - - -
0.2562 12780 0.0192 - - - - - - -
0.2566 12800 0.0191 - - - - - - -
0.2570 12820 0.0196 - - - - - - -
0.2574 12840 0.0189 - - - - - - -
0.2578 12860 0.0207 - - - - - - -
0.2582 12880 0.0207 - - - - - - -
0.2586 12900 0.0187 - - - - - - -
0.2590 12920 0.0206 - - - - - - -
0.2594 12940 0.0186 - - - - - - -
0.2598 12960 0.0189 - - - - - - -
0.2602 12980 0.0198 - - - - - - -
0.2606 13000 0.0194 0.6651 0.3865 0.8112 0.5561 0.6583 0.3011 0.5630
0.2610 13020 0.0185 - - - - - - -
0.2614 13040 0.0188 - - - - - - -
0.2618 13060 0.0208 - - - - - - -
0.2622 13080 0.0184 - - - - - - -
0.2626 13100 0.0194 - - - - - - -
0.2630 13120 0.0191 - - - - - - -
0.2634 13140 0.019 - - - - - - -
0.2638 13160 0.0203 - - - - - - -
0.2642 13180 0.0194 - - - - - - -
0.2646 13200 0.0186 - - - - - - -
0.2650 13220 0.0199 - - - - - - -
0.2654 13240 0.0208 - - - - - - -
0.2658 13260 0.0195 - - - - - - -
0.2662 13280 0.0183 - - - - - - -
0.2667 13300 0.019 - - - - - - -
0.2671 13320 0.0195 - - - - - - -
0.2675 13340 0.0199 - - - - - - -
0.2679 13360 0.0188 - - - - - - -
0.2683 13380 0.0187 - - - - - - -
0.2687 13400 0.0204 - - - - - - -
0.2691 13420 0.0194 - - - - - - -
0.2695 13440 0.0208 - - - - - - -
0.2699 13460 0.0195 - - - - - - -
0.2703 13480 0.0191 - - - - - - -
0.2707 13500 0.0205 0.6616 0.4071 0.7941 0.5505 0.6677 0.3039 0.5642
0.2711 13520 0.0199 - - - - - - -
0.2715 13540 0.0199 - - - - - - -
0.2719 13560 0.0192 - - - - - - -
0.2723 13580 0.0185 - - - - - - -
0.2727 13600 0.0199 - - - - - - -
0.2731 13620 0.0188 - - - - - - -
0.2735 13640 0.0203 - - - - - - -
0.2739 13660 0.0183 - - - - - - -
0.2743 13680 0.0196 - - - - - - -
0.2747 13700 0.0189 - - - - - - -
0.2751 13720 0.0188 - - - - - - -
0.2755 13740 0.0186 - - - - - - -
0.2759 13760 0.0184 - - - - - - -
0.2763 13780 0.0199 - - - - - - -
0.2767 13800 0.0179 - - - - - - -
0.2771 13820 0.0195 - - - - - - -
0.2775 13840 0.0205 - - - - - - -
0.2779 13860 0.0199 - - - - - - -
0.2783 13880 0.019 - - - - - - -
0.2787 13900 0.0183 - - - - - - -
0.2791 13920 0.0188 - - - - - - -
0.2795 13940 0.019 - - - - - - -
0.2799 13960 0.0187 - - - - - - -
0.2803 13980 0.0185 - - - - - - -
0.2807 14000 0.0197 0.6619 0.4284 0.8004 0.5349 0.6551 0.3061 0.5645
0.2811 14020 0.0196 - - - - - - -
0.2815 14040 0.0186 - - - - - - -
0.2819 14060 0.0188 - - - - - - -
0.2823 14080 0.0186 - - - - - - -
0.2827 14100 0.0191 - - - - - - -
0.2831 14120 0.0188 - - - - - - -
0.2835 14140 0.0182 - - - - - - -
0.2839 14160 0.0198 - - - - - - -
0.2843 14180 0.0188 - - - - - - -
0.2847 14200 0.0198 - - - - - - -
0.2851 14220 0.0198 - - - - - - -
0.2855 14240 0.0192 - - - - - - -
0.2859 14260 0.0194 - - - - - - -
0.2863 14280 0.0185 - - - - - - -
0.2867 14300 0.0202 - - - - - - -
0.2871 14320 0.0195 - - - - - - -
0.2875 14340 0.0199 - - - - - - -
0.2879 14360 0.0203 - - - - - - -
0.2883 14380 0.0185 - - - - - - -
0.2887 14400 0.0205 - - - - - - -
0.2891 14420 0.0175 - - - - - - -
0.2895 14440 0.0191 - - - - - - -
0.2899 14460 0.0194 - - - - - - -
0.2903 14480 0.0188 - - - - - - -
0.2907 14500 0.0198 0.6645 0.4007 0.8059 0.5393 0.6545 0.2906 0.5593
0.2911 14520 0.0204 - - - - - - -
0.2915 14540 0.0186 - - - - - - -
0.2919 14560 0.0193 - - - - - - -
0.2923 14580 0.0194 - - - - - - -
0.2927 14600 0.0198 - - - - - - -
0.2931 14620 0.018 - - - - - - -
0.2935 14640 0.0195 - - - - - - -
0.2939 14660 0.0188 - - - - - - -
0.2943 14680 0.0189 - - - - - - -
0.2947 14700 0.0197 - - - - - - -
0.2951 14720 0.0184 - - - - - - -
0.2955 14740 0.018 - - - - - - -
0.2959 14760 0.0188 - - - - - - -
0.2963 14780 0.0198 - - - - - - -
0.2967 14800 0.0196 - - - - - - -
0.2971 14820 0.0199 - - - - - - -
0.2975 14840 0.0187 - - - - - - -
0.2979 14860 0.019 - - - - - - -
0.2983 14880 0.0199 - - - - - - -
0.2987 14900 0.0186 - - - - - - -
0.2991 14920 0.0179 - - - - - - -
0.2995 14940 0.019 - - - - - - -
0.2999 14960 0.0189 - - - - - - -
0.3003 14980 0.0188 - - - - - - -
0.3007 15000 0.0177 0.6447 0.3998 0.8085 0.5479 0.6496 0.3027 0.5589
0.3011 15020 0.0188 - - - - - - -
0.3015 15040 0.0203 - - - - - - -
0.3019 15060 0.0204 - - - - - - -
0.3023 15080 0.0185 - - - - - - -
0.3027 15100 0.0203 - - - - - - -
0.3031 15120 0.0195 - - - - - - -
0.3035 15140 0.0203 - - - - - - -
0.3039 15160 0.0194 - - - - - - -
0.3043 15180 0.0189 - - - - - - -
0.3047 15200 0.0196 - - - - - - -
0.3051 15220 0.0192 - - - - - - -
0.3055 15240 0.0182 - - - - - - -
0.3059 15260 0.0204 - - - - - - -
0.3063 15280 0.0183 - - - - - - -
0.3067 15300 0.0187 - - - - - - -
0.3071 15320 0.019 - - - - - - -
0.3076 15340 0.0189 - - - - - - -
0.3080 15360 0.0194 - - - - - - -
0.3084 15380 0.0189 - - - - - - -
0.3088 15400 0.0192 - - - - - - -
0.3092 15420 0.0185 - - - - - - -
0.3096 15440 0.0191 - - - - - - -
0.3100 15460 0.0195 - - - - - - -
0.3104 15480 0.0192 - - - - - - -
0.3108 15500 0.0191 0.6393 0.4072 0.7770 0.5576 0.6267 0.3072 0.5525
0.3112 15520 0.019 - - - - - - -
0.3116 15540 0.0192 - - - - - - -
0.3120 15560 0.0179 - - - - - - -
0.3124 15580 0.0202 - - - - - - -
0.3128 15600 0.0189 - - - - - - -
0.3132 15620 0.0193 - - - - - - -
0.3136 15640 0.019 - - - - - - -
0.3140 15660 0.0186 - - - - - - -
0.3144 15680 0.019 - - - - - - -
0.3148 15700 0.0184 - - - - - - -
0.3152 15720 0.019 - - - - - - -
0.3156 15740 0.0187 - - - - - - -
0.3160 15760 0.0198 - - - - - - -
0.3164 15780 0.0188 - - - - - - -
0.3168 15800 0.0186 - - - - - - -
0.3172 15820 0.0185 - - - - - - -
0.3176 15840 0.0188 - - - - - - -
0.3180 15860 0.0194 - - - - - - -
0.3184 15880 0.0199 - - - - - - -
0.3188 15900 0.0185 - - - - - - -
0.3192 15920 0.0187 - - - - - - -
0.3196 15940 0.0191 - - - - - - -
0.3200 15960 0.0198 - - - - - - -
0.3204 15980 0.0184 - - - - - - -
0.3208 16000 0.0187 0.6462 0.4048 0.7970 0.5405 0.6470 0.2967 0.5554
0.3212 16020 0.0189 - - - - - - -
0.3216 16040 0.0183 - - - - - - -
0.3220 16060 0.0182 - - - - - - -
0.3224 16080 0.0193 - - - - - - -
0.3228 16100 0.0191 - - - - - - -
0.3232 16120 0.0192 - - - - - - -
0.3236 16140 0.0206 - - - - - - -
0.3240 16160 0.0197 - - - - - - -
0.3244 16180 0.019 - - - - - - -
0.3248 16200 0.0199 - - - - - - -
0.3252 16220 0.0187 - - - - - - -
0.3256 16240 0.0205 - - - - - - -
0.3260 16260 0.02 - - - - - - -
0.3264 16280 0.0191 - - - - - - -
0.3268 16300 0.0192 - - - - - - -
0.3272 16320 0.0196 - - - - - - -
0.3276 16340 0.0198 - - - - - - -
0.3280 16360 0.0189 - - - - - - -
0.3284 16380 0.0192 - - - - - - -
0.3288 16400 0.0183 - - - - - - -
0.3292 16420 0.0195 - - - - - - -
0.3296 16440 0.0184 - - - - - - -
0.3300 16460 0.0179 - - - - - - -
0.3304 16480 0.0176 - - - - - - -
0.3308 16500 0.0183 0.6392 0.4020 0.8010 0.5500 0.6443 0.2956 0.5554
0.3312 16520 0.0196 - - - - - - -
0.3316 16540 0.0176 - - - - - - -
0.3320 16560 0.0194 - - - - - - -
0.3324 16580 0.0199 - - - - - - -
0.3328 16600 0.0185 - - - - - - -
0.3332 16620 0.0195 - - - - - - -
0.3336 16640 0.0194 - - - - - - -
0.3340 16660 0.018 - - - - - - -
0.3344 16680 0.019 - - - - - - -
0.3348 16700 0.0188 - - - - - - -
0.3352 16720 0.0191 - - - - - - -
0.3356 16740 0.0182 - - - - - - -
0.3360 16760 0.0188 - - - - - - -
0.3364 16780 0.0187 - - - - - - -
0.3368 16800 0.0201 - - - - - - -
0.3372 16820 0.0189 - - - - - - -
0.3376 16840 0.0186 - - - - - - -
0.3380 16860 0.0184 - - - - - - -
0.3384 16880 0.0173 - - - - - - -
0.3388 16900 0.0194 - - - - - - -
0.3392 16920 0.0199 - - - - - - -
0.3396 16940 0.0192 - - - - - - -
0.3400 16960 0.0206 - - - - - - -
0.3404 16980 0.0193 - - - - - - -
0.3408 17000 0.0178 0.6501 0.3958 0.8080 0.5608 0.6513 0.2951 0.5602
0.3412 17020 0.0193 - - - - - - -
0.3416 17040 0.0193 - - - - - - -
0.3420 17060 0.0187 - - - - - - -
0.3424 17080 0.018 - - - - - - -
0.3428 17100 0.0201 - - - - - - -
0.3432 17120 0.0192 - - - - - - -
0.3436 17140 0.0187 - - - - - - -
0.3440 17160 0.0191 - - - - - - -
0.3444 17180 0.0197 - - - - - - -
0.3448 17200 0.0193 - - - - - - -
0.3452 17220 0.0192 - - - - - - -
0.3456 17240 0.018 - - - - - - -
0.3460 17260 0.0194 - - - - - - -
0.3464 17280 0.0187 - - - - - - -
0.3468 17300 0.0194 - - - - - - -
0.3472 17320 0.0192 - - - - - - -
0.3476 17340 0.0184 - - - - - - -
0.3480 17360 0.0197 - - - - - - -
0.3485 17380 0.0181 - - - - - - -
0.3489 17400 0.0198 - - - - - - -
0.3493 17420 0.0187 - - - - - - -
0.3497 17440 0.0186 - - - - - - -
0.3501 17460 0.0184 - - - - - - -
0.3505 17480 0.0184 - - - - - - -
0.3509 17500 0.0195 0.6493 0.4192 0.7972 0.5475 0.6502 0.2825 0.5576
0.3513 17520 0.0192 - - - - - - -
0.3517 17540 0.0197 - - - - - - -
0.3521 17560 0.0171 - - - - - - -
0.3525 17580 0.0185 - - - - - - -
0.3529 17600 0.0176 - - - - - - -
0.3533 17620 0.0183 - - - - - - -
0.3537 17640 0.0186 - - - - - - -
0.3541 17660 0.0179 - - - - - - -
0.3545 17680 0.0183 - - - - - - -
0.3549 17700 0.0191 - - - - - - -
0.3553 17720 0.0183 - - - - - - -
0.3557 17740 0.0188 - - - - - - -
0.3561 17760 0.0185 - - - - - - -
0.3565 17780 0.0178 - - - - - - -
0.3569 17800 0.0197 - - - - - - -
0.3573 17820 0.0183 - - - - - - -
0.3577 17840 0.0192 - - - - - - -
0.3581 17860 0.0184 - - - - - - -
0.3585 17880 0.0183 - - - - - - -
0.3589 17900 0.0191 - - - - - - -
0.3593 17920 0.019 - - - - - - -
0.3597 17940 0.0187 - - - - - - -
0.3601 17960 0.0179 - - - - - - -
0.3605 17980 0.0191 - - - - - - -
0.3609 18000 0.0182 0.6580 0.3925 0.7960 0.5518 0.6476 0.2905 0.5561
0.3613 18020 0.0181 - - - - - - -
0.3617 18040 0.0172 - - - - - - -
0.3621 18060 0.0192 - - - - - - -
0.3625 18080 0.0183 - - - - - - -
0.3629 18100 0.0189 - - - - - - -
0.3633 18120 0.0194 - - - - - - -
0.3637 18140 0.0198 - - - - - - -
0.3641 18160 0.019 - - - - - - -
0.3645 18180 0.0179 - - - - - - -
0.3649 18200 0.0191 - - - - - - -
0.3653 18220 0.0181 - - - - - - -
0.3657 18240 0.0189 - - - - - - -
0.3661 18260 0.0197 - - - - - - -
0.3665 18280 0.0174 - - - - - - -
0.3669 18300 0.0184 - - - - - - -
0.3673 18320 0.0196 - - - - - - -
0.3677 18340 0.0192 - - - - - - -
0.3681 18360 0.0187 - - - - - - -
0.3685 18380 0.0195 - - - - - - -
0.3689 18400 0.0179 - - - - - - -
0.3693 18420 0.0193 - - - - - - -
0.3697 18440 0.0174 - - - - - - -
0.3701 18460 0.0186 - - - - - - -
0.3705 18480 0.019 - - - - - - -
0.3709 18500 0.02 0.6521 0.4179 0.8054 0.5585 0.6520 0.2956 0.5636
0.3713 18520 0.0206 - - - - - - -
0.3717 18540 0.019 - - - - - - -
0.3721 18560 0.0184 - - - - - - -
0.3725 18580 0.0173 - - - - - - -
0.3729 18600 0.0191 - - - - - - -
0.3733 18620 0.0183 - - - - - - -
0.3737 18640 0.0199 - - - - - - -
0.3741 18660 0.0186 - - - - - - -
0.3745 18680 0.0189 - - - - - - -
0.3749 18700 0.0188 - - - - - - -
0.3753 18720 0.018 - - - - - - -
0.3757 18740 0.0191 - - - - - - -
0.3761 18760 0.0184 - - - - - - -
0.3765 18780 0.0185 - - - - - - -
0.3769 18800 0.0197 - - - - - - -
0.3773 18820 0.0185 - - - - - - -
0.3777 18840 0.0191 - - - - - - -
0.3781 18860 0.0179 - - - - - - -
0.3785 18880 0.0182 - - - - - - -
0.3789 18900 0.019 - - - - - - -
0.3793 18920 0.0182 - - - - - - -
0.3797 18940 0.0181 - - - - - - -
0.3801 18960 0.0168 - - - - - - -
0.3805 18980 0.017 - - - - - - -
0.3809 19000 0.0191 0.6494 0.4192 0.7922 0.5609 0.6589 0.3066 0.5645
0.3813 19020 0.0186 - - - - - - -
0.3817 19040 0.0177 - - - - - - -
0.3821 19060 0.0185 - - - - - - -
0.3825 19080 0.0182 - - - - - - -
0.3829 19100 0.0183 - - - - - - -
0.3833 19120 0.0184 - - - - - - -
0.3837 19140 0.0183 - - - - - - -
0.3841 19160 0.018 - - - - - - -
0.3845 19180 0.0177 - - - - - - -
0.3849 19200 0.0205 - - - - - - -
0.3853 19220 0.018 - - - - - - -
0.3857 19240 0.0199 - - - - - - -
0.3861 19260 0.0186 - - - - - - -
0.3865 19280 0.018 - - - - - - -
0.3869 19300 0.0198 - - - - - - -
0.3873 19320 0.0185 - - - - - - -
0.3877 19340 0.018 - - - - - - -
0.3881 19360 0.0189 - - - - - - -
0.3885 19380 0.018 - - - - - - -
0.3889 19400 0.0174 - - - - - - -
0.3894 19420 0.0176 - - - - - - -
0.3898 19440 0.0192 - - - - - - -
0.3902 19460 0.019 - - - - - - -
0.3906 19480 0.0186 - - - - - - -
0.3910 19500 0.0187 0.6572 0.4063 0.8012 0.5595 0.6611 0.3004 0.5643
0.3914 19520 0.0195 - - - - - - -
0.3918 19540 0.0175 - - - - - - -
0.3922 19560 0.0178 - - - - - - -
0.3926 19580 0.0187 - - - - - - -
0.3930 19600 0.0182 - - - - - - -
0.3934 19620 0.0182 - - - - - - -
0.3938 19640 0.0186 - - - - - - -
0.3942 19660 0.0192 - - - - - - -
0.3946 19680 0.0181 - - - - - - -
0.3950 19700 0.0184 - - - - - - -
0.3954 19720 0.0183 - - - - - - -
0.3958 19740 0.018 - - - - - - -
0.3962 19760 0.0189 - - - - - - -
0.3966 19780 0.0187 - - - - - - -
0.3970 19800 0.0179 - - - - - - -
0.3974 19820 0.0177 - - - - - - -
0.3978 19840 0.0176 - - - - - - -
0.3982 19860 0.0188 - - - - - - -
0.3986 19880 0.0201 - - - - - - -
0.3990 19900 0.0185 - - - - - - -
0.3994 19920 0.019 - - - - - - -
0.3998 19940 0.0176 - - - - - - -
0.4002 19960 0.0193 - - - - - - -
0.4006 19980 0.0187 - - - - - - -
0.4010 20000 0.0185 0.6634 0.3980 0.8136 0.5747 0.6521 0.3120 0.5690
0.4014 20020 0.0181 - - - - - - -
0.4018 20040 0.0189 - - - - - - -
0.4022 20060 0.0188 - - - - - - -
0.4026 20080 0.0183 - - - - - - -
0.4030 20100 0.0182 - - - - - - -
0.4034 20120 0.0182 - - - - - - -
0.4038 20140 0.0188 - - - - - - -
0.4042 20160 0.0195 - - - - - - -
0.4046 20180 0.0176 - - - - - - -
0.4050 20200 0.0189 - - - - - - -
0.4054 20220 0.0194 - - - - - - -
0.4058 20240 0.0188 - - - - - - -
0.4062 20260 0.0178 - - - - - - -
0.4066 20280 0.0185 - - - - - - -
0.4070 20300 0.0191 - - - - - - -
0.4074 20320 0.0197 - - - - - - -
0.4078 20340 0.0196 - - - - - - -
0.4082 20360 0.0191 - - - - - - -
0.4086 20380 0.0201 - - - - - - -
0.4090 20400 0.0191 - - - - - - -
0.4094 20420 0.0189 - - - - - - -
0.4098 20440 0.0179 - - - - - - -
0.4102 20460 0.0182 - - - - - - -
0.4106 20480 0.0177 - - - - - - -
0.4110 20500 0.0189 0.6557 0.4273 0.8051 0.5520 0.6363 0.2987 0.5625
0.4114 20520 0.0173 - - - - - - -
0.4118 20540 0.0186 - - - - - - -
0.4122 20560 0.0175 - - - - - - -
0.4126 20580 0.0197 - - - - - - -
0.4130 20600 0.0183 - - - - - - -
0.4134 20620 0.0187 - - - - - - -
0.4138 20640 0.0184 - - - - - - -
0.4142 20660 0.0189 - - - - - - -
0.4146 20680 0.0189 - - - - - - -
0.4150 20700 0.0181 - - - - - - -
0.4154 20720 0.018 - - - - - - -
0.4158 20740 0.0184 - - - - - - -
0.4162 20760 0.0179 - - - - - - -
0.4166 20780 0.0173 - - - - - - -
0.4170 20800 0.0182 - - - - - - -
0.4174 20820 0.0182 - - - - - - -
0.4178 20840 0.0183 - - - - - - -
0.4182 20860 0.0194 - - - - - - -
0.4186 20880 0.0169 - - - - - - -
0.4190 20900 0.0202 - - - - - - -
0.4194 20920 0.0196 - - - - - - -
0.4198 20940 0.0186 - - - - - - -
0.4202 20960 0.0202 - - - - - - -
0.4206 20980 0.0188 - - - - - - -
0.4210 21000 0.0178 0.6648 0.4114 0.8205 0.5431 0.6418 0.2910 0.5621
0.4214 21020 0.0191 - - - - - - -
0.4218 21040 0.0199 - - - - - - -
0.4222 21060 0.0188 - - - - - - -
0.4226 21080 0.0175 - - - - - - -
0.4230 21100 0.0177 - - - - - - -
0.4234 21120 0.018 - - - - - - -
0.4238 21140 0.0188 - - - - - - -
0.4242 21160 0.0196 - - - - - - -
0.4246 21180 0.0178 - - - - - - -
0.4250 21200 0.0183 - - - - - - -
0.4254 21220 0.0183 - - - - - - -
0.4258 21240 0.0182 - - - - - - -
0.4262 21260 0.0191 - - - - - - -
0.4266 21280 0.0194 - - - - - - -
0.4270 21300 0.0196 - - - - - - -
0.4274 21320 0.0165 - - - - - - -
0.4278 21340 0.0178 - - - - - - -
0.4282 21360 0.0185 - - - - - - -
0.4286 21380 0.0183 - - - - - - -
0.4290 21400 0.0176 - - - - - - -
0.4294 21420 0.0181 - - - - - - -
0.4298 21440 0.0181 - - - - - - -
0.4302 21460 0.018 - - - - - - -
0.4307 21480 0.0178 - - - - - - -
0.4311 21500 0.0173 0.6489 0.4178 0.8050 0.5376 0.6442 0.3129 0.5611
0.4315 21520 0.0194 - - - - - - -
0.4319 21540 0.0177 - - - - - - -
0.4323 21560 0.0175 - - - - - - -
0.4327 21580 0.0175 - - - - - - -
0.4331 21600 0.019 - - - - - - -
0.4335 21620 0.0186 - - - - - - -
0.4339 21640 0.0193 - - - - - - -
0.4343 21660 0.0188 - - - - - - -
0.4347 21680 0.0195 - - - - - - -
0.4351 21700 0.0188 - - - - - - -
0.4355 21720 0.0185 - - - - - - -
0.4359 21740 0.0186 - - - - - - -
0.4363 21760 0.0184 - - - - - - -
0.4367 21780 0.0184 - - - - - - -
0.4371 21800 0.0191 - - - - - - -
0.4375 21820 0.0178 - - - - - - -
0.4379 21840 0.0191 - - - - - - -
0.4383 21860 0.0189 - - - - - - -
0.4387 21880 0.0186 - - - - - - -
0.4391 21900 0.0189 - - - - - - -
0.4395 21920 0.0192 - - - - - - -
0.4399 21940 0.0199 - - - - - - -
0.4403 21960 0.0183 - - - - - - -
0.4407 21980 0.0184 - - - - - - -
0.4411 22000 0.0189 0.6520 0.4201 0.7956 0.5617 0.6363 0.3041 0.5616
0.4415 22020 0.0172 - - - - - - -
0.4419 22040 0.0187 - - - - - - -
0.4423 22060 0.0187 - - - - - - -
0.4427 22080 0.0186 - - - - - - -
0.4431 22100 0.0203 - - - - - - -
0.4435 22120 0.0176 - - - - - - -
0.4439 22140 0.0184 - - - - - - -
0.4443 22160 0.0192 - - - - - - -
0.4447 22180 0.0196 - - - - - - -
0.4451 22200 0.0174 - - - - - - -
0.4455 22220 0.0176 - - - - - - -
0.4459 22240 0.0183 - - - - - - -
0.4463 22260 0.019 - - - - - - -
0.4467 22280 0.0181 - - - - - - -
0.4471 22300 0.0188 - - - - - - -
0.4475 22320 0.0177 - - - - - - -
0.4479 22340 0.0179 - - - - - - -
0.4483 22360 0.0179 - - - - - - -
0.4487 22380 0.0179 - - - - - - -
0.4491 22400 0.0195 - - - - - - -
0.4495 22420 0.0182 - - - - - - -
0.4499 22440 0.0178 - - - - - - -
0.4503 22460 0.0188 - - - - - - -
0.4507 22480 0.018 - - - - - - -
0.4511 22500 0.0174 0.6541 0.4307 0.8135 0.5505 0.6488 0.3082 0.5676
0.4515 22520 0.0184 - - - - - - -
0.4519 22540 0.0186 - - - - - - -
0.4523 22560 0.0182 - - - - - - -
0.4527 22580 0.0176 - - - - - - -
0.4531 22600 0.0187 - - - - - - -
0.4535 22620 0.0175 - - - - - - -
0.4539 22640 0.0191 - - - - - - -
0.4543 22660 0.0177 - - - - - - -
0.4547 22680 0.018 - - - - - - -
0.4551 22700 0.0205 - - - - - - -
0.4555 22720 0.0189 - - - - - - -
0.4559 22740 0.0179 - - - - - - -
0.4563 22760 0.0177 - - - - - - -
0.4567 22780 0.0179 - - - - - - -
0.4571 22800 0.0183 - - - - - - -
0.4575 22820 0.0186 - - - - - - -
0.4579 22840 0.0194 - - - - - - -
0.4583 22860 0.0188 - - - - - - -
0.4587 22880 0.0175 - - - - - - -
0.4591 22900 0.0183 - - - - - - -
0.4595 22920 0.0185 - - - - - - -
0.4599 22940 0.0187 - - - - - - -
0.4603 22960 0.0181 - - - - - - -
0.4607 22980 0.0189 - - - - - - -
0.4611 23000 0.0198 0.6451 0.4051 0.8036 0.5512 0.6476 0.3006 0.5589
0.4615 23020 0.0183 - - - - - - -
0.4619 23040 0.0184 - - - - - - -
0.4623 23060 0.017 - - - - - - -
0.4627 23080 0.0178 - - - - - - -
0.4631 23100 0.0186 - - - - - - -
0.4635 23120 0.0179 - - - - - - -
0.4639 23140 0.0183 - - - - - - -
0.4643 23160 0.0178 - - - - - - -
0.4647 23180 0.0177 - - - - - - -
0.4651 23200 0.0184 - - - - - - -
0.4655 23220 0.0192 - - - - - - -
0.4659 23240 0.0183 - - - - - - -
0.4663 23260 0.0178 - - - - - - -
0.4667 23280 0.0197 - - - - - - -
0.4671 23300 0.018 - - - - - - -
0.4675 23320 0.0178 - - - - - - -
0.4679 23340 0.0174 - - - - - - -
0.4683 23360 0.0182 - - - - - - -
0.4687 23380 0.0186 - - - - - - -
0.4691 23400 0.0183 - - - - - - -
0.4695 23420 0.0191 - - - - - - -
0.4699 23440 0.0204 - - - - - - -
0.4703 23460 0.0182 - - - - - - -
0.4707 23480 0.0165 - - - - - - -
0.4711 23500 0.0172 0.6551 0.4134 0.8106 0.5638 0.6503 0.2968 0.5650
0.4716 23520 0.0185 - - - - - - -
0.4720 23540 0.0192 - - - - - - -
0.4724 23560 0.0182 - - - - - - -
0.4728 23580 0.0188 - - - - - - -
0.4732 23600 0.0177 - - - - - - -
0.4736 23620 0.0183 - - - - - - -
0.4740 23640 0.0189 - - - - - - -
0.4744 23660 0.0183 - - - - - - -
0.4748 23680 0.0181 - - - - - - -
0.4752 23700 0.0197 - - - - - - -
0.4756 23720 0.0189 - - - - - - -
0.4760 23740 0.0178 - - - - - - -
0.4764 23760 0.0185 - - - - - - -
0.4768 23780 0.0177 - - - - - - -
0.4772 23800 0.0182 - - - - - - -
0.4776 23820 0.0193 - - - - - - -
0.4780 23840 0.018 - - - - - - -
0.4784 23860 0.0196 - - - - - - -
0.4788 23880 0.0181 - - - - - - -
0.4792 23900 0.0188 - - - - - - -
0.4796 23920 0.0181 - - - - - - -
0.4800 23940 0.0197 - - - - - - -
0.4804 23960 0.0174 - - - - - - -
0.4808 23980 0.0181 - - - - - - -
0.4812 24000 0.0179 0.6454 0.4068 0.8123 0.5662 0.6577 0.3074 0.5660
0.4816 24020 0.0183 - - - - - - -
0.4820 24040 0.0202 - - - - - - -
0.4824 24060 0.0189 - - - - - - -
0.4828 24080 0.0182 - - - - - - -
0.4832 24100 0.0188 - - - - - - -
0.4836 24120 0.0172 - - - - - - -
0.4840 24140 0.0177 - - - - - - -
0.4844 24160 0.0192 - - - - - - -
0.4848 24180 0.0179 - - - - - - -
0.4852 24200 0.0182 - - - - - - -
0.4856 24220 0.019 - - - - - - -
0.4860 24240 0.019 - - - - - - -
0.4864 24260 0.0187 - - - - - - -
0.4868 24280 0.0181 - - - - - - -
0.4872 24300 0.0182 - - - - - - -
0.4876 24320 0.02 - - - - - - -
0.4880 24340 0.0176 - - - - - - -
0.4884 24360 0.019 - - - - - - -
0.4888 24380 0.0166 - - - - - - -
0.4892 24400 0.0187 - - - - - - -
0.4896 24420 0.019 - - - - - - -
0.4900 24440 0.0183 - - - - - - -
0.4904 24460 0.0187 - - - - - - -
0.4908 24480 0.0191 - - - - - - -
0.4912 24500 0.0181 0.6528 0.4163 0.8163 0.5620 0.6471 0.3012 0.5659
0.4916 24520 0.0181 - - - - - - -
0.4920 24540 0.0188 - - - - - - -
0.4924 24560 0.0179 - - - - - - -
0.4928 24580 0.0173 - - - - - - -
0.4932 24600 0.0183 - - - - - - -
0.4936 24620 0.0174 - - - - - - -
0.4940 24640 0.0179 - - - - - - -
0.4944 24660 0.0189 - - - - - - -
0.4948 24680 0.0186 - - - - - - -
0.4952 24700 0.0187 - - - - - - -
0.4956 24720 0.0177 - - - - - - -
0.4960 24740 0.018 - - - - - - -
0.4964 24760 0.0193 - - - - - - -
0.4968 24780 0.0179 - - - - - - -
0.4972 24800 0.0188 - - - - - - -
0.4976 24820 0.0182 - - - - - - -
0.4980 24840 0.0179 - - - - - - -
0.4984 24860 0.0177 - - - - - - -
0.4988 24880 0.0175 - - - - - - -
0.4992 24900 0.019 - - - - - - -
0.4996 24920 0.0168 - - - - - - -
0.5000 24940 0.0185 - - - - - - -
0.5004 24960 0.0189 - - - - - - -
0.5008 24980 0.0193 - - - - - - -
0.5012 25000 0.018 0.6543 0.4284 0.8012 0.5540 0.6582 0.3091 0.5675
0.5016 25020 0.0174 - - - - - - -
0.5020 25040 0.0173 - - - - - - -
0.5024 25060 0.0179 - - - - - - -
0.5028 25080 0.0181 - - - - - - -
0.5032 25100 0.0161 - - - - - - -
0.5036 25120 0.0175 - - - - - - -
0.5040 25140 0.0169 - - - - - - -
0.5044 25160 0.0187 - - - - - - -
0.5048 25180 0.0193 - - - - - - -
0.5052 25200 0.0177 - - - - - - -
0.5056 25220 0.0183 - - - - - - -
0.5060 25240 0.0177 - - - - - - -
0.5064 25260 0.0184 - - - - - - -
0.5068 25280 0.0198 - - - - - - -
0.5072 25300 0.0185 - - - - - - -
0.5076 25320 0.0193 - - - - - - -
0.5080 25340 0.0177 - - - - - - -
0.5084 25360 0.0175 - - - - - - -
0.5088 25380 0.0181 - - - - - - -
0.5092 25400 0.0186 - - - - - - -
0.5096 25420 0.0188 - - - - - - -
0.5100 25440 0.0172 - - - - - - -
0.5104 25460 0.0187 - - - - - - -
0.5108 25480 0.0178 - - - - - - -
0.5112 25500 0.0179 0.6550 0.4284 0.8008 0.5422 0.6537 0.3029 0.5638
0.5116 25520 0.0176 - - - - - - -
0.5120 25540 0.0176 - - - - - - -
0.5125 25560 0.0178 - - - - - - -
0.5129 25580 0.0182 - - - - - - -
0.5133 25600 0.0179 - - - - - - -
0.5137 25620 0.0171 - - - - - - -
0.5141 25640 0.0187 - - - - - - -
0.5145 25660 0.0175 - - - - - - -
0.5149 25680 0.0178 - - - - - - -
0.5153 25700 0.018 - - - - - - -
0.5157 25720 0.0169 - - - - - - -
0.5161 25740 0.0177 - - - - - - -
0.5165 25760 0.0169 - - - - - - -
0.5169 25780 0.0186 - - - - - - -
0.5173 25800 0.0194 - - - - - - -
0.5177 25820 0.0181 - - - - - - -
0.5181 25840 0.0175 - - - - - - -
0.5185 25860 0.017 - - - - - - -
0.5189 25880 0.0171 - - - - - - -
0.5193 25900 0.018 - - - - - - -
0.5197 25920 0.019 - - - - - - -
0.5201 25940 0.0175 - - - - - - -
0.5205 25960 0.018 - - - - - - -
0.5209 25980 0.019 - - - - - - -
0.5213 26000 0.0185 0.6538 0.4252 0.8109 0.5432 0.6528 0.3096 0.5659
0.5217 26020 0.0175 - - - - - - -
0.5221 26040 0.0185 - - - - - - -
0.5225 26060 0.0173 - - - - - - -
0.5229 26080 0.0178 - - - - - - -
0.5233 26100 0.018 - - - - - - -
0.5237 26120 0.0183 - - - - - - -
0.5241 26140 0.0184 - - - - - - -
0.5245 26160 0.017 - - - - - - -
0.5249 26180 0.0174 - - - - - - -
0.5253 26200 0.0181 - - - - - - -
0.5257 26220 0.019 - - - - - - -
0.5261 26240 0.0169 - - - - - - -
0.5265 26260 0.018 - - - - - - -
0.5269 26280 0.0178 - - - - - - -
0.5273 26300 0.017 - - - - - - -
0.5277 26320 0.0171 - - - - - - -
0.5281 26340 0.0179 - - - - - - -
0.5285 26360 0.0186 - - - - - - -
0.5289 26380 0.0187 - - - - - - -
0.5293 26400 0.0179 - - - - - - -
0.5297 26420 0.0168 - - - - - - -
0.5301 26440 0.0179 - - - - - - -
0.5305 26460 0.0179 - - - - - - -
0.5309 26480 0.0186 - - - - - - -
0.5313 26500 0.0192 0.6533 0.4177 0.8121 0.5516 0.6553 0.2907 0.5634
0.5317 26520 0.0183 - - - - - - -
0.5321 26540 0.0184 - - - - - - -
0.5325 26560 0.0175 - - - - - - -
0.5329 26580 0.018 - - - - - - -
0.5333 26600 0.0179 - - - - - - -
0.5337 26620 0.0188 - - - - - - -
0.5341 26640 0.0176 - - - - - - -
0.5345 26660 0.0181 - - - - - - -
0.5349 26680 0.0175 - - - - - - -
0.5353 26700 0.0195 - - - - - - -
0.5357 26720 0.018 - - - - - - -
0.5361 26740 0.0184 - - - - - - -
0.5365 26760 0.0169 - - - - - - -
0.5369 26780 0.018 - - - - - - -
0.5373 26800 0.0172 - - - - - - -
0.5377 26820 0.0181 - - - - - - -
0.5381 26840 0.0179 - - - - - - -
0.5385 26860 0.0171 - - - - - - -
0.5389 26880 0.0182 - - - - - - -
0.5393 26900 0.0185 - - - - - - -
0.5397 26920 0.0175 - - - - - - -
0.5401 26940 0.0179 - - - - - - -
0.5405 26960 0.0185 - - - - - - -
0.5409 26980 0.018 - - - - - - -
0.5413 27000 0.0187 0.6509 0.4284 0.8035 0.5725 0.6581 0.3042 0.5696
0.5417 27020 0.0172 - - - - - - -
0.5421 27040 0.0173 - - - - - - -
0.5425 27060 0.0188 - - - - - - -
0.5429 27080 0.0183 - - - - - - -
0.5433 27100 0.0171 - - - - - - -
0.5437 27120 0.0178 - - - - - - -
0.5441 27140 0.0182 - - - - - - -
0.5445 27160 0.0179 - - - - - - -
0.5449 27180 0.0176 - - - - - - -
0.5453 27200 0.0177 - - - - - - -
0.5457 27220 0.018 - - - - - - -
0.5461 27240 0.0185 - - - - - - -
0.5465 27260 0.018 - - - - - - -
0.5469 27280 0.0184 - - - - - - -
0.5473 27300 0.0182 - - - - - - -
0.5477 27320 0.0185 - - - - - - -
0.5481 27340 0.0173 - - - - - - -
0.5485 27360 0.018 - - - - - - -
0.5489 27380 0.0186 - - - - - - -
0.5493 27400 0.0183 - - - - - - -
0.5497 27420 0.0188 - - - - - - -
0.5501 27440 0.0181 - - - - - - -
0.5505 27460 0.0183 - - - - - - -
0.5509 27480 0.0198 - - - - - - -
0.5513 27500 0.019 0.6417 0.3970 0.7964 0.5328 0.6528 0.3068 0.5546
0.5517 27520 0.0182 - - - - - - -
0.5521 27540 0.0193 - - - - - - -
0.5525 27560 0.0171 - - - - - - -
0.5529 27580 0.0177 - - - - - - -
0.5534 27600 0.0184 - - - - - - -
0.5538 27620 0.0173 - - - - - - -
0.5542 27640 0.0183 - - - - - - -
0.5546 27660 0.0168 - - - - - - -
0.5550 27680 0.018 - - - - - - -
0.5554 27700 0.0173 - - - - - - -
0.5558 27720 0.0185 - - - - - - -
0.5562 27740 0.0179 - - - - - - -
0.5566 27760 0.0185 - - - - - - -
0.5570 27780 0.0178 - - - - - - -
0.5574 27800 0.0187 - - - - - - -
0.5578 27820 0.0186 - - - - - - -
0.5582 27840 0.0171 - - - - - - -
0.5586 27860 0.0185 - - - - - - -
0.5590 27880 0.0178 - - - - - - -
0.5594 27900 0.0172 - - - - - - -
0.5598 27920 0.0181 - - - - - - -
0.5602 27940 0.0172 - - - - - - -
0.5606 27960 0.0183 - - - - - - -
0.5610 27980 0.0178 - - - - - - -
0.5614 28000 0.0179 0.6494 0.4165 0.8023 0.5578 0.6516 0.3091 0.5644
0.5618 28020 0.0176 - - - - - - -
0.5622 28040 0.0181 - - - - - - -
0.5626 28060 0.0178 - - - - - - -
0.5630 28080 0.0182 - - - - - - -
0.5634 28100 0.0183 - - - - - - -
0.5638 28120 0.0175 - - - - - - -
0.5642 28140 0.0165 - - - - - - -
0.5646 28160 0.0185 - - - - - - -
0.5650 28180 0.018 - - - - - - -
0.5654 28200 0.0186 - - - - - - -
0.5658 28220 0.0183 - - - - - - -
0.5662 28240 0.0174 - - - - - - -
0.5666 28260 0.0173 - - - - - - -
0.5670 28280 0.0184 - - - - - - -
0.5674 28300 0.0174 - - - - - - -
0.5678 28320 0.0173 - - - - - - -
0.5682 28340 0.0177 - - - - - - -
0.5686 28360 0.0189 - - - - - - -
0.5690 28380 0.0175 - - - - - - -
0.5694 28400 0.0192 - - - - - - -
0.5698 28420 0.0176 - - - - - - -
0.5702 28440 0.0175 - - - - - - -
0.5706 28460 0.0195 - - - - - - -
0.5710 28480 0.0186 - - - - - - -
0.5714 28500 0.0172 0.6601 0.4072 0.8172 0.5635 0.6473 0.3041 0.5666
0.5718 28520 0.0188 - - - - - - -
0.5722 28540 0.0191 - - - - - - -
0.5726 28560 0.0172 - - - - - - -
0.5730 28580 0.017 - - - - - - -
0.5734 28600 0.0173 - - - - - - -
0.5738 28620 0.0189 - - - - - - -
0.5742 28640 0.0179 - - - - - - -
0.5746 28660 0.0176 - - - - - - -
0.5750 28680 0.0163 - - - - - - -
0.5754 28700 0.0174 - - - - - - -
0.5758 28720 0.0168 - - - - - - -
0.5762 28740 0.0164 - - - - - - -
0.5766 28760 0.0186 - - - - - - -
0.5770 28780 0.0173 - - - - - - -
0.5774 28800 0.0187 - - - - - - -
0.5778 28820 0.0186 - - - - - - -
0.5782 28840 0.0183 - - - - - - -
0.5786 28860 0.0166 - - - - - - -
0.5790 28880 0.0185 - - - - - - -
0.5794 28900 0.0184 - - - - - - -
0.5798 28920 0.0177 - - - - - - -
0.5802 28940 0.0178 - - - - - - -
0.5806 28960 0.0182 - - - - - - -
0.5810 28980 0.0185 - - - - - - -
0.5814 29000 0.0176 0.6654 0.4147 0.8252 0.5642 0.6712 0.2991 0.5733

Framework Versions

  • Python: 3.11.12
  • Sentence Transformers: 3.4.1
  • PyLate: 1.1.7
  • Transformers: 4.48.2
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.6.0
  • Datasets: 3.6.0
  • Tokenizers: 0.21.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084"
}

PyLate

@misc{PyLate,
title={PyLate: Flexible Training and Retrieval for Late Interaction Models},
author={Chaffin, Antoine and Sourty, Raphaël},
url={https://github.com/lightonai/pylate},
year={2024}
}
Downloads last month
8
Safetensors
Model size
34.2M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Speedsy/turkish-multilingual-e5-small-32768-colbert-29000

Finetuned
(42)
this model

Evaluation results