HirCoir's picture
Update README.md
0677e1a verified
|
raw
history blame
1.44 kB
---
language:
- es
- en
tags:
- gguf
- llama.cpp
- phi-3
- phi-3-mini
- 128k
- phi-3-mini-128k
---
# Phi-3-mini-128k-instruct
![Image](Phi-3.jpg)
## Requisitos
Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio:
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)
Para instalar llama.cpp, sigue estos pasos:
```bash
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make
```
## Uso del modelo
La plantilla del modelo es la siguiente:
```plaintext
<|user|>\n{prompt} <|end|>\n<|assistant|>
```
Puedes utilizar el modelo en llama.cpp con el siguiente comando:
```bash
./main -m ggml-model-Q8_0.gguf -p "<|user|>\n¿Cómo te llamas? <|end|>\n<|assistant|>" --log-disable
```
LM Studio config-presets
Filename:phi-3.preset.json
```json
{
"name": "Phi-3",
"inference_params": {
"input_prefix": "<|user|>\n",
"input_suffix": "<|end|>\n<|assistant|>",
"antiprompt": [
"<|user|>\n",
"<|end|>\n<|assistant|>"
],
"pre_prompt": "<|system|>\nYou are a helpful AI assistant.<|end|>",
"pre_prompt_prefix": "",
"pre_prompt_suffix": ""
},
"load_params": {
"rope_freq_scale": 0,
"rope_freq_base": 0
}
}
```
## Referencias
- [Repositorio original](https://huggingface.co/microsoft/Phi-3-mini-128k-instruct)
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp)