V
VERA
v0.1
INTELLIGENCE
Solution d'intelligence artificielle nouvelle génération

Vera v0.1

Créé le : 23 avril 2025
Auteur : Dorian Dominici
Paramètres : 7.24 milliards
Contexte max. : 32 000 tokens


🌟 Description

Vera est un modèle de langage polyvalent (LLM) bilingue, conçu pour offrir un échange naturel en français et en anglais. Grâce à ses 7 milliards de paramètres et à une fenêtre contextuelle étendue à 32 k tokens, Vera excelle dans :

  • 💬 Conversation fluide
  • 🔄 Traduction précise
  • 📝 Génération et correction de code léger
  • 🤖 Agents IA pour tâches générales

🚀 Points forts

  • Bilingue FR/EN : Compréhensions et réponses optimisées pour ces deux langues.
  • Large contexte : Idéale pour les documents longs et les scénarios complexes d’agent IA.
  • Polyvalence : Adaptée aux cas d’usage variés : chat, traduction, résumé, codage, etc.
  • Accès open-source : Facile à déployer et à intégrer via la plateforme Hugging Face.

🧱 Points Faible

  • Codage : Bien que compétent, il peux être limité pour des tâches complexe.
  • Petite taille : Etant un modèle de 7 Milliards de paramètre, il reste limité en connaissance comparez a des modèles tels que GPT-4.

🛠️ Cas d’usage

Domaine Exemples
Chatbot & Assistance Support client, FAQ interactives
Traduction Texte technique, emails, documentation
Aide au développement Snippets, correction de bugs, documentation code
Rédaction & Résumé Articles, rapports, synthèses
Automatisation IA Agents conversationnels, workflows automatisés

📦 Détails techniques

  • Architecture : Transformer standard
  • Taille du modèle : ~7 B paramètres
  • Context window : 32 768 tokens
  • Langues : Français, Anglais
  • Licence : Apache-2.0

Downloads last month
11
Safetensors
Model size
7.24B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Dorian2B/Vera-v0.1

Quantizations
2 models

Collection including Dorian2B/Vera-v0.1