Update README.md
Browse files
README.md
CHANGED
@@ -17,7 +17,7 @@ language:
|
|
17 |
- en
|
18 |
---
|
19 |
|
20 |
-
#
|
21 |
Este es un modelo sin censura simple, no cuenta con datasets extras mas que este que acabo de inyectar. El dataset se trata de una fusión de alta calidad de diferentes conjuntos de datos de escritura y juego de roles de HuggingFace. Esta versión cuenta con una longitud de secuencia de 8K (tokenizador Llama 3). Asegura que los entrenadores como Axolotl no descarten las muestras. Realizado con el script de https://huggingface.co/xzuyn
|
22 |
|
23 |
Lea la tarjeta del conjunto de datos para obtener más información: https://huggingface.co/datasets/Dampfinchen/Creative_Writing_Multiturn -> Si puede entrenar con una longitud de secuencia de entrada de 16K o más, definitivamente úsela en su lugar.
|
|
|
17 |
- en
|
18 |
---
|
19 |
|
20 |
+
# ANTIWOKE 1B ROLEPLAY
|
21 |
Este es un modelo sin censura simple, no cuenta con datasets extras mas que este que acabo de inyectar. El dataset se trata de una fusión de alta calidad de diferentes conjuntos de datos de escritura y juego de roles de HuggingFace. Esta versión cuenta con una longitud de secuencia de 8K (tokenizador Llama 3). Asegura que los entrenadores como Axolotl no descarten las muestras. Realizado con el script de https://huggingface.co/xzuyn
|
22 |
|
23 |
Lea la tarjeta del conjunto de datos para obtener más información: https://huggingface.co/datasets/Dampfinchen/Creative_Writing_Multiturn -> Si puede entrenar con una longitud de secuencia de entrada de 16K o más, definitivamente úsela en su lugar.
|