Solution d'intelligence artificielle nouvelle génération
Vera v0.2
Créé le : 7 mai 2025
Auteur : Dorian Dominici
Paramètres : 8 milliards
Contexte max. : 128 000 tokens
🌟 Description
Vera est un modèle de langage polyvalent (LLM) multilingue, conçu pour offrir un échange naturel principalement en français et en anglais, avec un support secondaire pour l'espagnol, l'italien, l'allemand et le polonais. Grâce à ses 8 milliards de paramètres et à une fenêtre contextuelle considérablement étendue à 128 k tokens, Vera excelle dans :
- 💬 Conversation fluide et naturelle
- 🔄 Traduction précise et contextuelle
- 📝 Génération et correction de code avancées
- 🤖 Agents IA pour tâches complexes
- 📊 Analyse de documents volumineux
🚀 Points forts
- Multilingue : Excellence en français et anglais, avec support solide pour l'espagnol, l'italien, l'allemand et le polonais.
- Contexte étendu : Fenêtre de 128k tokens idéale pour l'analyse de longs documents et scénarios d'agents IA complexes.
- Connaissance générale élevée : Base de connaissances étendue couvrant un large éventail de domaines académiques, culturels et pratiques.
- Polyvalence améliorée : Performances supérieures en chat, traduction, résumé, codage et raisonnement.
- Compétences techniques : Très bonnes aptitudes en programmation, analyse de données et rédaction technique.
- Accès open-source : Facilement déployable et intégrable via la plateforme Hugging Face.
🧱 Points d'amélioration
- Spécialisation : Bien que polyvalent, peut être moins performant que des modèles spécialisés pour certaines tâches très spécifiques.
- Taille modérée : Avec 8 milliards de paramètres, reste plus compact que les modèles géants (tout en offrant un excellent rapport performances/ressources).
🛠️ Cas d'usage
Domaine |
Exemples |
Chatbot & Assistance |
Support client multilingue, systèmes conversationnels avancés |
Traduction |
Textes techniques, documentation spécialisée, littérature |
Développement logiciel |
Génération de code, débogage, documentation automatisée |
Rédaction & Analyse |
Articles, rapports, synthèses de documents volumineux |
Automatisation IA |
Agents conversationnels complexes, systèmes de RAG |
Éducation |
Tutoriels personnalisés, assistance à l'apprentissage |
🧪 BenchMark
Benchmark |
Vera v0.2 |
Llama 3 8B |
Qwen 3 8B |
ARC Challenge |
60.6% |
82.0% |
61.7% |
HellaSwag |
81.7% |
80.4% |
56.5% |
MMLU (global) |
68.1% |
67.9% |
74.7% |
📦 Détails techniques
- Architecture : Transformer optimisé
- Taille du modèle : 8 milliards de paramètres
- Context window : 128 000 tokens
- Langues principales : Français, Anglais
- Langues secondaires : Espagnol, Italien, Allemand, Polonais
- Licence : Apache-2.0
Cliquez ici télécharger le GGUF