SergioSET commited on
Commit
9068cbc
verified
1 Parent(s): c04c2a9

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +32 -28
README.md CHANGED
@@ -37,56 +37,60 @@ model-index:
37
  value: 0.9675738105867966
38
  ---
39
 
40
- <!-- This model card has been generated automatically according to the information the Trainer had access to. You
41
- should probably proofread and complete it, then remove this comment. -->
42
-
43
  # bert-finetuned-ner
44
 
45
- This model is a fine-tuned version of [google-bert/bert-base-cased](https://huggingface.co/google-bert/bert-base-cased) on the conll2002 dataset.
46
- It achieves the following results on the evaluation set:
47
- - Loss: 0.1620
48
- - Precision: 0.7612
49
  - Recall: 0.8028
50
  - F1: 0.7815
51
- - Accuracy: 0.9676
 
 
 
 
52
 
53
- ## Model description
54
 
55
- More information needed
56
 
57
- ## Intended uses & limitations
 
58
 
59
- More information needed
60
 
61
- ## Training and evaluation data
 
62
 
63
- More information needed
64
 
65
- ## Training procedure
66
 
67
- ### Training hyperparameters
68
 
69
- The following hyperparameters were used during training:
 
 
70
  - learning_rate: 2e-05
71
  - train_batch_size: 8
72
  - eval_batch_size: 8
73
  - seed: 42
74
- - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
75
  - lr_scheduler_type: linear
76
  - num_epochs: 5
77
 
78
- ### Training results
79
-
80
- | Training Loss | Epoch | Step | Validation Loss | Precision | Recall | F1 | Accuracy |
81
- |:-------------:|:-----:|:----:|:---------------:|:---------:|:------:|:------:|:--------:|
82
- | 0.1029 | 1.0 | 1041 | 0.1456 | 0.7070 | 0.7470 | 0.7265 | 0.9599 |
83
- | 0.0681 | 2.0 | 2082 | 0.1440 | 0.6997 | 0.7737 | 0.7348 | 0.9624 |
84
- | 0.0424 | 3.0 | 3123 | 0.1424 | 0.7611 | 0.8008 | 0.7804 | 0.9680 |
85
- | 0.0278 | 4.0 | 4164 | 0.1573 | 0.7621 | 0.7971 | 0.7792 | 0.9666 |
86
- | 0.0212 | 5.0 | 5205 | 0.1620 | 0.7612 | 0.8028 | 0.7815 | 0.9676 |
87
 
 
 
 
 
 
 
 
88
 
89
- ### Framework versions
90
 
91
  - Transformers 4.41.1
92
  - Pytorch 2.3.0+cu121
 
37
  value: 0.9675738105867966
38
  ---
39
 
 
 
 
40
  # bert-finetuned-ner
41
 
42
+ Este modelo es una versi贸n afinada de [google-bert/bert-base-cased](https://huggingface.co/google-bert/bert-base-cased) en el conjunto de datos conll2002.
43
+ Obtiene los siguientes resultados en el conjunto de evaluaci贸n:
44
+ - P茅rdida: 0.1620
45
+ - Precisi贸n: 0.7612
46
  - Recall: 0.8028
47
  - F1: 0.7815
48
+ - Exactitud: 0.9676
49
+
50
+ ## Descripci贸n del modelo
51
+
52
+ El modelo BERT (Bidirectional Encoder Representations from Transformers) es un modelo de aprendizaje profundo basado en Transformers desarrollado por Google. BERT est谩 preentrenado en un gran corpus de texto en ingl茅s y luego se puede afinar para tareas espec铆ficas, como el reconocimiento de entidades nombradas (NER). Este modelo en particular ha sido afinado en el conjunto de datos conll2002 para el idioma espa帽ol.
53
 
54
+ ## Usos e limitaciones
55
 
56
+ ### Usos
57
 
58
+ - Reconocimiento de entidades nombradas (NER) en textos en espa帽ol.
59
+ - Aplicaciones en procesamiento de lenguaje natural donde se necesite identificar nombres de personas, lugares, organizaciones, etc.
60
 
61
+ ### Limitaciones
62
 
63
+ - El modelo puede no funcionar bien en textos fuera del dominio de los datos de entrenamiento (conll2002).
64
+ - Puede tener sesgos inherentes debido a los datos con los que fue preentrenado y afinado.
65
 
66
+ ## Datos de entrenamiento y evaluaci贸n
67
 
68
+ El modelo fue afinado y evaluado utilizando el conjunto de datos conll2002, que es un conjunto de datos est谩ndar para tareas de reconocimiento de entidades nombradas en espa帽ol.
69
 
70
+ ## Procedimiento de entrenamiento
71
 
72
+ ### Hiperpar谩metros de entrenamiento
73
+
74
+ Los siguientes hiperpar谩metros se utilizaron durante el entrenamiento:
75
  - learning_rate: 2e-05
76
  - train_batch_size: 8
77
  - eval_batch_size: 8
78
  - seed: 42
79
+ - optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
80
  - lr_scheduler_type: linear
81
  - num_epochs: 5
82
 
83
+ ### Resultados del entrenamiento
 
 
 
 
 
 
 
 
84
 
85
+ | P茅rdida de entrenamiento | 脡poca | Paso | P茅rdida de validaci贸n | Precisi贸n | Recall | F1 | Exactitud |
86
+ |:------------------------:|:-----:|:----:|:---------------------:|:---------:|:------:|:------:|:---------:|
87
+ | 0.1029 | 1.0 | 1041 | 0.1456 | 0.7070 | 0.7470 | 0.7265 | 0.9599 |
88
+ | 0.0681 | 2.0 | 2082 | 0.1440 | 0.6997 | 0.7737 | 0.7348 | 0.9624 |
89
+ | 0.0424 | 3.0 | 3123 | 0.1424 | 0.7611 | 0.8008 | 0.7804 | 0.9680 |
90
+ | 0.0278 | 4.0 | 4164 | 0.1573 | 0.7621 | 0.7971 | 0.7792 | 0.9666 |
91
+ | 0.0212 | 5.0 | 5205 | 0.1620 | 0.7612 | 0.8028 | 0.7815 | 0.9676 |
92
 
93
+ ### Versiones de los frameworks
94
 
95
  - Transformers 4.41.1
96
  - Pytorch 2.3.0+cu121