Text Generation
Transformers
GGUF
English
Spanish
llama
unsloth
uncensored
llama-3.2
llama.cpp
koboldcpp
inference
nsfw
llama-cpp
1b
4-bit precision
rp
roleplay
Not-For-All-Audiences
imatrix
conversational
File size: 1,605 Bytes
83dc39d 49d3a8b 40183c2 49d3a8b |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 |
---
base_model: carsenk/llama3.2_1b_2025_uncensored_v2
datasets:
- mlabonne/FineTome-100k
- microsoft/orca-math-word-problems-200k
- m-a-p/CodeFeedback-Filtered-Instruction
- cognitivecomputations/dolphin-coder
- PawanKrd/math-gpt-4o-200k
- V3N0M/Jenna-50K-Alpaca-Uncensored
- FreedomIntelligence/medical-o1-reasoning-SFT
- Dampfinchen/Creative_Writing_Multiturn-Balanced-8192
language:
- en
- es
library_name: transformers
license: llama3.2
pipeline_tag: text-generation
tags:
- llama
- unsloth
- uncensored
- llama-3.2
- llama.cpp
- koboldcpp
- gguf
- inference
- nsfw
- llama-cpp
- 1b
- 4-bit
- rp
- roleplay
- not-for-all-audiences
---
# Uncensored 1b Creative Writer RP
Este es un modelo sin censura con siete datasets + uno que he inyectado que se trata de una fusi贸n de alta calidad de diferentes conjuntos de datos de escritura y juego de roles de HuggingFace. Esta versi贸n cuenta con una longitud de secuencia de 8K (tokenizador Llama 3). Asegura que los entrenadores como Axolotl no descarten las muestras. Realizado con el script de https://huggingface.co/xzuyn
Lea la tarjeta del conjunto de datos para obtener m谩s informaci贸n: https://huggingface.co/datasets/Dampfinchen/Creative_Writing_Multiturn -> Si puede entrenar con una longitud de secuencia de entrada de 16K o m谩s, definitivamente 煤sela en su lugar.
Tenga en cuenta que este material puede contener todo tipo de datos expl铆citos problem谩ticos. No me hago responsable de ello ni lo apruebo. Descargue el material 煤nicamente si conoce la situaci贸n legal de los contenidos ficticios escritos de cualquier tipo en su pa铆s. |