Novaciano commited on
Commit
942186c
·
verified ·
1 Parent(s): af52dc6

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +30 -1
README.md CHANGED
@@ -38,6 +38,35 @@ license: apache-2.0
38
  Este modelo se convirtió al formato GGUF desde [`Novaciano/La_Mejor_Mezcla-3.2-1B`](https://huggingface.co/Novaciano/La_Mejor_Mezcla-3.2-1B) utilizando llama.cpp a través del espacio [GGUF-my-repo](https://huggingface.co/spaces/ggml-org/gguf-my-repo) de ggml.ai.
39
  Consulta la [tarjeta del modelo original](https://huggingface.co/Novaciano/La_Mejor_Mezcla-3.2-1B) para obtener más detalles sobre el modelo.
40
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
41
  ## Uso con llama.cpp
42
  Instalar llama.cpp a través de brew (funciona en Mac y Linux)
43
 
@@ -45,7 +74,7 @@ Instalar llama.cpp a través de brew (funciona en Mac y Linux)
45
  brew install llama.cpp
46
 
47
  ```
48
- Invoke the llama.cpp server or the CLI.
49
 
50
  ### CLI:
51
  ```bash
 
38
  Este modelo se convirtió al formato GGUF desde [`Novaciano/La_Mejor_Mezcla-3.2-1B`](https://huggingface.co/Novaciano/La_Mejor_Mezcla-3.2-1B) utilizando llama.cpp a través del espacio [GGUF-my-repo](https://huggingface.co/spaces/ggml-org/gguf-my-repo) de ggml.ai.
39
  Consulta la [tarjeta del modelo original](https://huggingface.co/Novaciano/La_Mejor_Mezcla-3.2-1B) para obtener más detalles sobre el modelo.
40
 
41
+ <center><a href="https://ibb.co/YFCsj2MK"><img src="https://i.ibb.co/pB7FX28s/1559d4be98b5a26edf62ee40695ececc-high.jpg" alt="1559d4be98b5a26edf62ee40695ececc-high" border="0"></a></center>
42
+
43
+ # Mezcla
44
+
45
+ *Esta es una mezcla de modelos de lenguaje pre-entrenados creado a partir de [mergekit](https://github.com/cg123/mergekit).*
46
+
47
+ ## Detalles de la mezcla
48
+
49
+ *Fue creado a partir de los que considero los mejores modelos que he usado de base para mis anteriores creaciones. Cada uno destaca en lo suyo:*
50
+ - Roleplay
51
+ - GRPO
52
+ - Uncensored
53
+ - Abliterated
54
+ - Gran cantidad de datasets inyectados
55
+
56
+ ### Método de Mezcla
57
+
58
+ *Este modelo ha sido mezclado usando el método de mezcla [Model Stock](https://arxiv.org/abs/2403.19522) usando [bunnycore/FuseChat-3.2-1B-Creative-RP](https://huggingface.co/bunnycore/FuseChat-3.2-1B-Creative-RP) como base.*
59
+
60
+ ### Modelos Mezclados
61
+
62
+ *Los siguientes modelos han sido incluidos en la mezcla:*
63
+ * [NickyNicky/Llama-1B-GRPO_Final](https://huggingface.co/NickyNicky/Llama-1B-GRPO_Final)
64
+ * [xdrshjr/llama3.2_1b_uncensored_5000_8epoch_lora](https://huggingface.co/xdrshjr/llama3.2_1b_uncensored_5000_8epoch_lora)
65
+ * [huihui-ai/Llama-3.2-1B-Instruct-abliterated](https://huggingface.co/huihui-ai/Llama-3.2-1B-Instruct-abliterated)
66
+ * [prithivMLmods/Bellatrix-Tiny-1B-v3](https://huggingface.co/prithivMLmods/Bellatrix-Tiny-1B-v3)
67
+ * [cognitivecomputations/Dolphin3.0-Llama3.2-1B](https://huggingface.co/cognitivecomputations/Dolphin3.0-Llama3.2-1B)
68
+
69
+ ---
70
  ## Uso con llama.cpp
71
  Instalar llama.cpp a través de brew (funciona en Mac y Linux)
72
 
 
74
  brew install llama.cpp
75
 
76
  ```
77
+ Invoque el servidor llama.cpp o la CLI.
78
 
79
  ### CLI:
80
  ```bash