test6_balanced
Este modelo ha sido ajustado para la clasificaci贸n de cero disparos utilizando una versi贸n preentrenada de ibaucells/RoBERTa-ca-CaWikiTC en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluaci贸n:
- P茅rdida: 1.6982
Descripci贸n del modelo
Se necesita m谩s informaci贸n sobre este modelo.
Usos previstos y limitaciones
Se necesita m谩s informaci贸n sobre los usos previstos y las limitaciones de este modelo.
Datos de entrenamiento y evaluaci贸n
Se necesita m谩s informaci贸n sobre los datos utilizados para entrenar y evaluar este modelo.
Procedimiento de entrenamiento
Hiperpar谩metros de entrenamiento
Se utilizaron los siguientes hiperpar谩metros durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 10
- eval_batch_size: 10
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 25
Resultados del entrenamiento
P茅rdida de entrenamiento | 脡poca | Paso | P茅rdida de validaci贸n |
---|---|---|---|
2.8358 | 1.0 | 63 | 2.8655 |
2.8469 | 2.0 | 126 | 2.8447 |
... | ... | ... | ... |
Versiones del framework
- Transformers 4.38.2
- Pytorch 2.1.0+cu121
- Datasets 2.18.0
- Tokenizers 0.15.2
- Downloads last month
- 6
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for adriansanz/test6_balanced
Base model
projecte-aina/roberta-base-ca-v2-cawikitc