Minerva - Modelo afinado a partir de Mistral-7B
minerva
es un modelo de lenguaje entrenado con fine-tuning sobre la base de mistral-7b
, orientado a mejorar la comprensión contextual y respuestas personalizadas en flujos conversacionales. Entrenado con un dataset de ~480 ejemplos, representa un modelo compacto, eficiente y apto para correr en entornos con recursos limitados (como GPUs de 4GB).
Detalles Técnicos
- Base Model:
mistral-7b
- Técnica: Fine-tuning con LoRA
- Epochs: 3
- Tamaño del modelo (quantized): 7.2GB (
q8_0
) - Formato: GGUF
- Conversión:
llama.cpp
-convert_hf_to_gguf.py
- Deployment: Ollama + WebUI
- Framework de entrenamiento: Axolotl
- Infraestructura: RunPod + servidor local Ubuntu (4GB VRAM, 16GB RAM)
Instrucciones para usarlo con Ollama
ollama pull <usuario>/minerva
ollama run minerva
O para registrar tu propia copia local:
# Modelfile
FROM model_q8_0.gguf
Y luego:
ollama create minerva -f Modelfile
Dataset
El dataset consta de ~480 ejemplos seleccionados y curados manualmente, con foco en:
- Preguntas y respuestas técnicas
- Instrucciones con estructura de pasos
- Personalización del estilo conversacional
- Se puede ver aqui.
Objetivo
Minerva fue diseñado como asistente inteligente para automatizar tareas, responder con criterio técnico, y adaptarse a contextos personalizados (educación, desarrollo, cultura técnica local).
Licencia
MIT – Libre uso comercial, modificación y distribución.
Contacto
Desarrollado por Leon Saia.
Para sugerencias o colaboración, contactame por GitHub o vía mi blog.
- Downloads last month
- 27