Update README_es.md
Browse files- README_es.md +1 -1
README_es.md
CHANGED
@@ -72,7 +72,7 @@ Tras analizar el rendimiento de una gran cantidad de LLMs, nos hemos decantado p
|
|
72 |
necesidad de ser preentrenado. Para perturbar lo mínimo posible el conocimiento previo del modelo que le permite obtener este rendimiento, hemos optado por usar la técnica de
|
73 |
entrenamiento *Low-Rank Adaptation* (LoRA).
|
74 |
|
75 |
-
La configuración exacta de entrenamiento está disponible en
|
76 |
|
77 |
### Prompt
|
78 |
El prompt utilizado para el entrenamiento es el mismo definido explicado en [https://huggingface.co/datasets/somosnlp/NoticIA-it](https://huggingface.co/datasets/somosnlp/NoticIA-it).
|
|
|
72 |
necesidad de ser preentrenado. Para perturbar lo mínimo posible el conocimiento previo del modelo que le permite obtener este rendimiento, hemos optado por usar la técnica de
|
73 |
entrenamiento *Low-Rank Adaptation* (LoRA).
|
74 |
|
75 |
+
La configuración exacta de entrenamiento está disponible en: https://huggingface.co/somosnlp/NoticIA-7B/blob/main/openchat-3.5-0106_LoRA.yaml
|
76 |
|
77 |
### Prompt
|
78 |
El prompt utilizado para el entrenamiento es el mismo definido explicado en [https://huggingface.co/datasets/somosnlp/NoticIA-it](https://huggingface.co/datasets/somosnlp/NoticIA-it).
|