Update README.md
Browse files
README.md
CHANGED
@@ -23,23 +23,23 @@ Por otra parte, GRPO elimina la necesidad de un modelo crítico al comparar las
|
|
23 |
|
24 |
---
|
25 |
|
26 |
-
|
27 |
La optimización de políticas relativas a grupos (GRPO, por sus siglas en inglés) es un algoritmo de aprendizaje por refuerzo (RL, por sus siglas en inglés) diseñado específicamente para mejorar las capacidades de razonamiento en modelos de lenguaje grandes (LLM, por sus siglas en inglés). A diferencia de los métodos de RL tradicionales, que dependen en gran medida de evaluadores externos (críticos) para guiar el aprendizaje, GRPO optimiza el modelo evaluando grupos de respuestas en relación con otras. Este enfoque permite un entrenamiento más eficiente, lo que hace que GRPO sea ideal para tareas de razonamiento que requieren la resolución de problemas complejos y largas cadenas de pensamiento.
|
28 |
|
29 |
---
|
30 |
|
31 |
-
|
32 |
|
33 |
-
|
34 |
```
|
35 |
Context Size: A elección, cuanto mas mejor.
|
36 |
Max Output: A elección, es la cantidad de texto.
|
37 |
-
Temp: 0.
|
38 |
Top. K: 0 | Top. A: 0.96 | Typ: 0.6
|
39 |
TFS: 1 | Min-P: 0 | Pr. Pen: 0 | Smooth F: 0
|
40 |
Seed: -1 | Rp. Range: 1000 | Rp. Slope: 0.7
|
41 |
```
|
42 |
|
43 |
-
|
44 |
<center> <a href="https://ibb.co/ZJT3NwV"><img src="https://i.ibb.co/FW79nfK/IMG-20250127-173035.jpg" alt="IMG-20250127-173035" border="0"></a> </center>
|
45 |
<center> <a href="https://ibb.co/0n63SxD"><img src="https://i.ibb.co/hg4vjS7/IMG-20250127-173209.jpg" alt="IMG-20250127-173209" border="0"></a> </center>
|
|
|
23 |
|
24 |
---
|
25 |
|
26 |
+
# ¿Que es GRPO?
|
27 |
La optimización de políticas relativas a grupos (GRPO, por sus siglas en inglés) es un algoritmo de aprendizaje por refuerzo (RL, por sus siglas en inglés) diseñado específicamente para mejorar las capacidades de razonamiento en modelos de lenguaje grandes (LLM, por sus siglas en inglés). A diferencia de los métodos de RL tradicionales, que dependen en gran medida de evaluadores externos (críticos) para guiar el aprendizaje, GRPO optimiza el modelo evaluando grupos de respuestas en relación con otras. Este enfoque permite un entrenamiento más eficiente, lo que hace que GRPO sea ideal para tareas de razonamiento que requieren la resolución de problemas complejos y largas cadenas de pensamiento.
|
28 |
|
29 |
---
|
30 |
|
31 |
+
# KoboldCpp
|
32 |
|
33 |
+
## Datos de Inferencia
|
34 |
```
|
35 |
Context Size: A elección, cuanto mas mejor.
|
36 |
Max Output: A elección, es la cantidad de texto.
|
37 |
+
Temp: 0.66 | Rep. Pen: 1.1 | Top. P: 1
|
38 |
Top. K: 0 | Top. A: 0.96 | Typ: 0.6
|
39 |
TFS: 1 | Min-P: 0 | Pr. Pen: 0 | Smooth F: 0
|
40 |
Seed: -1 | Rp. Range: 1000 | Rp. Slope: 0.7
|
41 |
```
|
42 |
|
43 |
+
## Ejemplos de funcionabilidad:
|
44 |
<center> <a href="https://ibb.co/ZJT3NwV"><img src="https://i.ibb.co/FW79nfK/IMG-20250127-173035.jpg" alt="IMG-20250127-173035" border="0"></a> </center>
|
45 |
<center> <a href="https://ibb.co/0n63SxD"><img src="https://i.ibb.co/hg4vjS7/IMG-20250127-173209.jpg" alt="IMG-20250127-173209" border="0"></a> </center>
|