Update README.md
Browse files
README.md
CHANGED
@@ -37,56 +37,60 @@ model-index:
|
|
37 |
value: 0.9675738105867966
|
38 |
---
|
39 |
|
40 |
-
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
|
41 |
-
should probably proofread and complete it, then remove this comment. -->
|
42 |
-
|
43 |
# bert-finetuned-ner
|
44 |
|
45 |
-
|
46 |
-
|
47 |
-
-
|
48 |
-
-
|
49 |
- Recall: 0.8028
|
50 |
- F1: 0.7815
|
51 |
-
-
|
|
|
|
|
|
|
|
|
52 |
|
53 |
-
##
|
54 |
|
55 |
-
|
56 |
|
57 |
-
|
|
|
58 |
|
59 |
-
|
60 |
|
61 |
-
|
|
|
62 |
|
63 |
-
|
64 |
|
65 |
-
|
66 |
|
67 |
-
|
68 |
|
69 |
-
|
|
|
|
|
70 |
- learning_rate: 2e-05
|
71 |
- train_batch_size: 8
|
72 |
- eval_batch_size: 8
|
73 |
- seed: 42
|
74 |
-
- optimizer: Adam
|
75 |
- lr_scheduler_type: linear
|
76 |
- num_epochs: 5
|
77 |
|
78 |
-
###
|
79 |
-
|
80 |
-
| Training Loss | Epoch | Step | Validation Loss | Precision | Recall | F1 | Accuracy |
|
81 |
-
|:-------------:|:-----:|:----:|:---------------:|:---------:|:------:|:------:|:--------:|
|
82 |
-
| 0.1029 | 1.0 | 1041 | 0.1456 | 0.7070 | 0.7470 | 0.7265 | 0.9599 |
|
83 |
-
| 0.0681 | 2.0 | 2082 | 0.1440 | 0.6997 | 0.7737 | 0.7348 | 0.9624 |
|
84 |
-
| 0.0424 | 3.0 | 3123 | 0.1424 | 0.7611 | 0.8008 | 0.7804 | 0.9680 |
|
85 |
-
| 0.0278 | 4.0 | 4164 | 0.1573 | 0.7621 | 0.7971 | 0.7792 | 0.9666 |
|
86 |
-
| 0.0212 | 5.0 | 5205 | 0.1620 | 0.7612 | 0.8028 | 0.7815 | 0.9676 |
|
87 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
88 |
|
89 |
-
###
|
90 |
|
91 |
- Transformers 4.41.1
|
92 |
- Pytorch 2.3.0+cu121
|
|
|
37 |
value: 0.9675738105867966
|
38 |
---
|
39 |
|
|
|
|
|
|
|
40 |
# bert-finetuned-ner
|
41 |
|
42 |
+
Este modelo es una versi贸n afinada de [google-bert/bert-base-cased](https://huggingface.co/google-bert/bert-base-cased) en el conjunto de datos conll2002.
|
43 |
+
Obtiene los siguientes resultados en el conjunto de evaluaci贸n:
|
44 |
+
- P茅rdida: 0.1620
|
45 |
+
- Precisi贸n: 0.7612
|
46 |
- Recall: 0.8028
|
47 |
- F1: 0.7815
|
48 |
+
- Exactitud: 0.9676
|
49 |
+
|
50 |
+
## Descripci贸n del modelo
|
51 |
+
|
52 |
+
El modelo BERT (Bidirectional Encoder Representations from Transformers) es un modelo de aprendizaje profundo basado en Transformers desarrollado por Google. BERT est谩 preentrenado en un gran corpus de texto en ingl茅s y luego se puede afinar para tareas espec铆ficas, como el reconocimiento de entidades nombradas (NER). Este modelo en particular ha sido afinado en el conjunto de datos conll2002 para el idioma espa帽ol.
|
53 |
|
54 |
+
## Usos e limitaciones
|
55 |
|
56 |
+
### Usos
|
57 |
|
58 |
+
- Reconocimiento de entidades nombradas (NER) en textos en espa帽ol.
|
59 |
+
- Aplicaciones en procesamiento de lenguaje natural donde se necesite identificar nombres de personas, lugares, organizaciones, etc.
|
60 |
|
61 |
+
### Limitaciones
|
62 |
|
63 |
+
- El modelo puede no funcionar bien en textos fuera del dominio de los datos de entrenamiento (conll2002).
|
64 |
+
- Puede tener sesgos inherentes debido a los datos con los que fue preentrenado y afinado.
|
65 |
|
66 |
+
## Datos de entrenamiento y evaluaci贸n
|
67 |
|
68 |
+
El modelo fue afinado y evaluado utilizando el conjunto de datos conll2002, que es un conjunto de datos est谩ndar para tareas de reconocimiento de entidades nombradas en espa帽ol.
|
69 |
|
70 |
+
## Procedimiento de entrenamiento
|
71 |
|
72 |
+
### Hiperpar谩metros de entrenamiento
|
73 |
+
|
74 |
+
Los siguientes hiperpar谩metros se utilizaron durante el entrenamiento:
|
75 |
- learning_rate: 2e-05
|
76 |
- train_batch_size: 8
|
77 |
- eval_batch_size: 8
|
78 |
- seed: 42
|
79 |
+
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
|
80 |
- lr_scheduler_type: linear
|
81 |
- num_epochs: 5
|
82 |
|
83 |
+
### Resultados del entrenamiento
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
84 |
|
85 |
+
| P茅rdida de entrenamiento | 脡poca | Paso | P茅rdida de validaci贸n | Precisi贸n | Recall | F1 | Exactitud |
|
86 |
+
|:------------------------:|:-----:|:----:|:---------------------:|:---------:|:------:|:------:|:---------:|
|
87 |
+
| 0.1029 | 1.0 | 1041 | 0.1456 | 0.7070 | 0.7470 | 0.7265 | 0.9599 |
|
88 |
+
| 0.0681 | 2.0 | 2082 | 0.1440 | 0.6997 | 0.7737 | 0.7348 | 0.9624 |
|
89 |
+
| 0.0424 | 3.0 | 3123 | 0.1424 | 0.7611 | 0.8008 | 0.7804 | 0.9680 |
|
90 |
+
| 0.0278 | 4.0 | 4164 | 0.1573 | 0.7621 | 0.7971 | 0.7792 | 0.9666 |
|
91 |
+
| 0.0212 | 5.0 | 5205 | 0.1620 | 0.7612 | 0.8028 | 0.7815 | 0.9676 |
|
92 |
|
93 |
+
### Versiones de los frameworks
|
94 |
|
95 |
- Transformers 4.41.1
|
96 |
- Pytorch 2.3.0+cu121
|