--- license: mit tags: - mistral - gguf - quantized - minerva - ollama - runpod - fine-tuning --- # Minerva - Modelo afinado a partir de Mistral-7B `minerva` es un modelo de lenguaje entrenado con fine-tuning sobre la base de `mistral-7b`, orientado a mejorar la comprensión contextual y respuestas personalizadas en flujos conversacionales. Entrenado con un dataset de ~480 ejemplos, representa un modelo compacto, eficiente y apto para correr en entornos con recursos limitados (como GPUs de 4GB). --- ## Detalles Técnicos - **Base Model:** [`mistral-7b`](https://huggingface.co/mistralai/Mistral-7B-v0.1) - **Técnica:** Fine-tuning con LoRA - **Epochs:** 3 - **Tamaño del modelo (quantized):** 7.2GB (`q8_0`) - **Formato:** GGUF - **Conversión:** `llama.cpp` - `convert_hf_to_gguf.py` - **Deployment:** [Ollama](https://ollama.com/) + WebUI - **Framework de entrenamiento:** [Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) - **Infraestructura:** RunPod + servidor local Ubuntu (4GB VRAM, 16GB RAM) --- ## Instrucciones para usarlo con Ollama ```bash ollama pull /minerva ollama run minerva ``` O para registrar tu propia copia local: ```Dockerfile # Modelfile FROM model_q8_0.gguf ``` Y luego: ```bash ollama create minerva -f Modelfile ``` --- ## Dataset El dataset consta de ~480 ejemplos seleccionados y curados manualmente, con foco en: - Preguntas y respuestas técnicas - Instrucciones con estructura de pasos - Personalización del estilo conversacional - Se puede ver [aqui](https://huggingface.co/datasets/LeonSaia/minerva_lora). --- ## Objetivo Minerva fue diseñado como asistente inteligente para automatizar tareas, responder con criterio técnico, y adaptarse a contextos personalizados (educación, desarrollo, cultura técnica local). --- ## Licencia MIT – Libre uso comercial, modificación y distribución. --- ## Contacto Desarrollado por [Leon Saia](https://leonsaia.com). Para sugerencias o colaboración, contactame por GitHub o vía [mi blog](https://leonsaia.com/blog).