--- language: - es - en tags: - OpenChat - gguf - llama.cpp --- # MiniChat-1.5-3B-Sorah ![Sorah](https://raw.githubusercontent.com/imoneoi/openchat/master/assets/logo_new.png) ## Requisitos Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio: - [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp) Para instalar llama.cpp, sigue estos pasos: ```bash git clone https://github.com/ggerganov/llama.cpp cd llama.cpp make ``` ## Uso del modelo La plantilla del modelo es la siguiente: ```plaintext GPT4 Correct User: {prompt} <|end_of_turn|>GPT4 Correct Assistant: ``` Puedes utilizar el modelo en llama.cpp con el siguiente comando: ```bash ./main -m ggml-model-Q8_0.gguf -p "GPT4 Correct User: Hola, ¿cómo te llamas? <|end_of_turn|>GPT4 Correct Assistant:" --log-disable ``` LM Studio config-presets Filename:openchat.preset.json ```json { "name": "OpenChat", "inference_params": { "input_prefix": "GPT4 Correct User:", "input_suffix": "<|end_of_turn|>GPT4 Correct Assistant:", "antiprompt": [ "GPT4 Correct User:", "<|end_of_turn|>GPT4 Correct Assistant:" ], "pre_prompt": "", "pre_prompt_prefix": "", "pre_prompt_suffix": "" }, "load_params": { "rope_freq_scale": 0, "rope_freq_base": 0 } } ``` ## Referencias - [Repositorio original](https://huggingface.co/openchat/openchat-3.5-0106) - [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)