Vera V1.1 - Instruct
Description :
Vera est une intelligence artificielle légère et performante, spécialisée dans les interactions en français. Optimisée pour fonctionner en local, elle offre des réponses rapides et pertinentes, même sur des configurations matérielles modestes.
Caractéristiques clés :
- Modèle léger (2.6B de paramètres) : Idéal pour une utilisation locale, y compris sur mobile
- Spécialisation en français : Compréhension et génération de texte de haute qualité
- Formats disponibles : GGUF (Llama.cpp/Ollama) et PyTorch
- Open Source : License Apache 2.0
Téléchargement et utilisation :
Option 1 : Via Ollama
ollama run hf.co/Dorian2B/Vera-v1.1-Instruct-GGUF:Q8_0
Option 2 : Téléchargement direct (GGUF)
Option 3 : Utilisation avec Python (PyTorch)
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Dorian2B/Vera-v1.1-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Cas d'usage :
- Assistance personnelle hors ligne
- Réponses rapides en français
- Solutions pour appareils à ressources limitées
Notes :
- Fonctionnement 100% local respectant la vie privée
- Performances optimales sur CPU/GPU (format GGUF)
- Poids du modèle : ~2.8GB (Q8_0), ~1.7GB (Q4_K_M)
- Downloads last month
- 8
Hardware compatibility
Log In
to view the estimation
4-bit
8-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for Dorian2B/Vera-v1.1-Instruct-GGUF
Base model
Dorian2B/Vera-Instruct