Update README.md
Browse files
README.md
CHANGED
@@ -41,8 +41,9 @@ should probably proofread and complete it, then remove this comment. -->
|
|
41 |
|
42 |
# xml-roberta-large-finetuned-ner
|
43 |
|
44 |
-
|
45 |
-
|
|
|
46 |
- Loss: 0.1364
|
47 |
- Precision: 0.8806
|
48 |
- Recall: 0.8897
|
@@ -51,7 +52,9 @@ It achieves the following results on the evaluation set:
|
|
51 |
|
52 |
## Model description
|
53 |
|
54 |
-
|
|
|
|
|
55 |
|
56 |
## Intended uses & limitations
|
57 |
|
|
|
41 |
|
42 |
# xml-roberta-large-finetuned-ner
|
43 |
|
44 |
+
Este es modelo resultado de un finetuning de
|
45 |
+
[FacebookAI/xlm-roberta-large-finetuned-conll03-english](https://huggingface.co/FacebookAI/xlm-roberta-large-finetuned-conll03-english) sobre el conll2002 dataset.
|
46 |
+
Los siguientes son los resultados sobre el conjunto de evaluación:
|
47 |
- Loss: 0.1364
|
48 |
- Precision: 0.8806
|
49 |
- Recall: 0.8897
|
|
|
52 |
|
53 |
## Model description
|
54 |
|
55 |
+
Este es el modelo más grande de roberta [FacebookAI/xlm-roberta-large-finetuned-conll03-english](https://huggingface.co/FacebookAI/xlm-roberta-large-finetuned-conll03-english)-
|
56 |
+
Este modelo fue ajustado usando el framework Kaggle [https://www.kaggle.com/settings]. Para realizar el preentrenamiento del modelo se tuvo que crear un directorio temporal en Kaggle
|
57 |
+
con el fin de almacenar de manera temoporal el modelo que pesa alrededor de 35 Gz.
|
58 |
|
59 |
## Intended uses & limitations
|
60 |
|