Update README.md
Browse files
README.md
CHANGED
@@ -38,6 +38,35 @@ license: apache-2.0
|
|
38 |
Este modelo se convirtió al formato GGUF desde [`Novaciano/La_Mejor_Mezcla-3.2-1B`](https://huggingface.co/Novaciano/La_Mejor_Mezcla-3.2-1B) utilizando llama.cpp a través del espacio [GGUF-my-repo](https://huggingface.co/spaces/ggml-org/gguf-my-repo) de ggml.ai.
|
39 |
Consulta la [tarjeta del modelo original](https://huggingface.co/Novaciano/La_Mejor_Mezcla-3.2-1B) para obtener más detalles sobre el modelo.
|
40 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
41 |
## Uso con llama.cpp
|
42 |
Instalar llama.cpp a través de brew (funciona en Mac y Linux)
|
43 |
|
@@ -45,7 +74,7 @@ Instalar llama.cpp a través de brew (funciona en Mac y Linux)
|
|
45 |
brew install llama.cpp
|
46 |
|
47 |
```
|
48 |
-
|
49 |
|
50 |
### CLI:
|
51 |
```bash
|
|
|
38 |
Este modelo se convirtió al formato GGUF desde [`Novaciano/La_Mejor_Mezcla-3.2-1B`](https://huggingface.co/Novaciano/La_Mejor_Mezcla-3.2-1B) utilizando llama.cpp a través del espacio [GGUF-my-repo](https://huggingface.co/spaces/ggml-org/gguf-my-repo) de ggml.ai.
|
39 |
Consulta la [tarjeta del modelo original](https://huggingface.co/Novaciano/La_Mejor_Mezcla-3.2-1B) para obtener más detalles sobre el modelo.
|
40 |
|
41 |
+
<center><a href="https://ibb.co/YFCsj2MK"><img src="https://i.ibb.co/pB7FX28s/1559d4be98b5a26edf62ee40695ececc-high.jpg" alt="1559d4be98b5a26edf62ee40695ececc-high" border="0"></a></center>
|
42 |
+
|
43 |
+
# Mezcla
|
44 |
+
|
45 |
+
*Esta es una mezcla de modelos de lenguaje pre-entrenados creado a partir de [mergekit](https://github.com/cg123/mergekit).*
|
46 |
+
|
47 |
+
## Detalles de la mezcla
|
48 |
+
|
49 |
+
*Fue creado a partir de los que considero los mejores modelos que he usado de base para mis anteriores creaciones. Cada uno destaca en lo suyo:*
|
50 |
+
- Roleplay
|
51 |
+
- GRPO
|
52 |
+
- Uncensored
|
53 |
+
- Abliterated
|
54 |
+
- Gran cantidad de datasets inyectados
|
55 |
+
|
56 |
+
### Método de Mezcla
|
57 |
+
|
58 |
+
*Este modelo ha sido mezclado usando el método de mezcla [Model Stock](https://arxiv.org/abs/2403.19522) usando [bunnycore/FuseChat-3.2-1B-Creative-RP](https://huggingface.co/bunnycore/FuseChat-3.2-1B-Creative-RP) como base.*
|
59 |
+
|
60 |
+
### Modelos Mezclados
|
61 |
+
|
62 |
+
*Los siguientes modelos han sido incluidos en la mezcla:*
|
63 |
+
* [NickyNicky/Llama-1B-GRPO_Final](https://huggingface.co/NickyNicky/Llama-1B-GRPO_Final)
|
64 |
+
* [xdrshjr/llama3.2_1b_uncensored_5000_8epoch_lora](https://huggingface.co/xdrshjr/llama3.2_1b_uncensored_5000_8epoch_lora)
|
65 |
+
* [huihui-ai/Llama-3.2-1B-Instruct-abliterated](https://huggingface.co/huihui-ai/Llama-3.2-1B-Instruct-abliterated)
|
66 |
+
* [prithivMLmods/Bellatrix-Tiny-1B-v3](https://huggingface.co/prithivMLmods/Bellatrix-Tiny-1B-v3)
|
67 |
+
* [cognitivecomputations/Dolphin3.0-Llama3.2-1B](https://huggingface.co/cognitivecomputations/Dolphin3.0-Llama3.2-1B)
|
68 |
+
|
69 |
+
---
|
70 |
## Uso con llama.cpp
|
71 |
Instalar llama.cpp a través de brew (funciona en Mac y Linux)
|
72 |
|
|
|
74 |
brew install llama.cpp
|
75 |
|
76 |
```
|
77 |
+
Invoque el servidor llama.cpp o la CLI.
|
78 |
|
79 |
### CLI:
|
80 |
```bash
|