Vera V1.1 - Instruct

Description :

Vera est une intelligence artificielle légère et performante, spécialisée dans les interactions en français. Optimisée pour fonctionner en local, elle offre des réponses rapides et pertinentes, même sur des configurations matérielles modestes.

Caractéristiques clés :

  • Modèle léger (2.6B de paramètres) : Idéal pour une utilisation locale, y compris sur mobile
  • Spécialisation en français : Compréhension et génération de texte de haute qualité
  • Formats disponibles : GGUF (Llama.cpp/Ollama) et PyTorch
  • Open Source : License Apache 2.0

Téléchargement et utilisation :

Option 1 : Via Ollama

ollama run hf.co/Dorian2B/Vera-v1.1-Instruct-GGUF:Q8_0

Option 2 : Téléchargement direct (GGUF)

Modèle GGUF Quantifié (Q8_0)

Option 3 : Utilisation avec Python (PyTorch)

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Dorian2B/Vera-v1.1-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Cas d'usage :

  • Assistance personnelle hors ligne
  • Réponses rapides en français
  • Solutions pour appareils à ressources limitées

Notes :

  • Fonctionnement 100% local respectant la vie privée
  • Performances optimales sur CPU/GPU (format GGUF)
  • Poids du modèle : ~2.8GB (Q8_0), ~1.7GB (Q4_K_M)
Downloads last month
8
GGUF
Model size
2.61B params
Architecture
gemma2
Hardware compatibility
Log In to view the estimation

4-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Dorian2B/Vera-v1.1-Instruct-GGUF

Quantized
(2)
this model