Novaciano commited on
Commit
ac5e1c7
·
verified ·
1 Parent(s): 30b6219

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -5
README.md CHANGED
@@ -23,23 +23,23 @@ Por otra parte, GRPO elimina la necesidad de un modelo crítico al comparar las
23
 
24
  ---
25
 
26
- ## ¿Que es GRPO?
27
  La optimización de políticas relativas a grupos (GRPO, por sus siglas en inglés) es un algoritmo de aprendizaje por refuerzo (RL, por sus siglas en inglés) diseñado específicamente para mejorar las capacidades de razonamiento en modelos de lenguaje grandes (LLM, por sus siglas en inglés). A diferencia de los métodos de RL tradicionales, que dependen en gran medida de evaluadores externos (críticos) para guiar el aprendizaje, GRPO optimiza el modelo evaluando grupos de respuestas en relación con otras. Este enfoque permite un entrenamiento más eficiente, lo que hace que GRPO sea ideal para tareas de razonamiento que requieren la resolución de problemas complejos y largas cadenas de pensamiento.
28
 
29
  ---
30
 
31
- ## KoboldCpp
32
 
33
- # Datos de Inferencia
34
  ```
35
  Context Size: A elección, cuanto mas mejor.
36
  Max Output: A elección, es la cantidad de texto.
37
- Temp: 0.1 | Rep. Pen: 1.1 | Top. P: 1
38
  Top. K: 0 | Top. A: 0.96 | Typ: 0.6
39
  TFS: 1 | Min-P: 0 | Pr. Pen: 0 | Smooth F: 0
40
  Seed: -1 | Rp. Range: 1000 | Rp. Slope: 0.7
41
  ```
42
 
43
- # Ejemplos de funcionabilidad:
44
  <center> <a href="https://ibb.co/ZJT3NwV"><img src="https://i.ibb.co/FW79nfK/IMG-20250127-173035.jpg" alt="IMG-20250127-173035" border="0"></a> </center>
45
  <center> <a href="https://ibb.co/0n63SxD"><img src="https://i.ibb.co/hg4vjS7/IMG-20250127-173209.jpg" alt="IMG-20250127-173209" border="0"></a> </center>
 
23
 
24
  ---
25
 
26
+ # ¿Que es GRPO?
27
  La optimización de políticas relativas a grupos (GRPO, por sus siglas en inglés) es un algoritmo de aprendizaje por refuerzo (RL, por sus siglas en inglés) diseñado específicamente para mejorar las capacidades de razonamiento en modelos de lenguaje grandes (LLM, por sus siglas en inglés). A diferencia de los métodos de RL tradicionales, que dependen en gran medida de evaluadores externos (críticos) para guiar el aprendizaje, GRPO optimiza el modelo evaluando grupos de respuestas en relación con otras. Este enfoque permite un entrenamiento más eficiente, lo que hace que GRPO sea ideal para tareas de razonamiento que requieren la resolución de problemas complejos y largas cadenas de pensamiento.
28
 
29
  ---
30
 
31
+ # KoboldCpp
32
 
33
+ ## Datos de Inferencia
34
  ```
35
  Context Size: A elección, cuanto mas mejor.
36
  Max Output: A elección, es la cantidad de texto.
37
+ Temp: 0.66 | Rep. Pen: 1.1 | Top. P: 1
38
  Top. K: 0 | Top. A: 0.96 | Typ: 0.6
39
  TFS: 1 | Min-P: 0 | Pr. Pen: 0 | Smooth F: 0
40
  Seed: -1 | Rp. Range: 1000 | Rp. Slope: 0.7
41
  ```
42
 
43
+ ## Ejemplos de funcionabilidad:
44
  <center> <a href="https://ibb.co/ZJT3NwV"><img src="https://i.ibb.co/FW79nfK/IMG-20250127-173035.jpg" alt="IMG-20250127-173035" border="0"></a> </center>
45
  <center> <a href="https://ibb.co/0n63SxD"><img src="https://i.ibb.co/hg4vjS7/IMG-20250127-173209.jpg" alt="IMG-20250127-173209" border="0"></a> </center>