Model Card for nexgenai-gpt2

nexgenai-gpt2 est un modèle de génération de texte basé sur GPT-2, adapté pour le français et affiné sur un corpus personnalisé incluant des conversations, instructions et dialogues pour un usage type assistant IA.

Model Details

Model Description

Ce modèle est une version fine-tunée de gpt2, développée pour mieux comprendre et générer du texte en français. Il est conçu pour des tâches de génération de texte fluide, de réponses conversationnelles et d’assistance personnalisée. Il est particulièrement adapté à des projets d’assistant intelligent ou de chatbot francophone.

  • Developed by: @paguielng
  • Model type: Language model (decoder-only)
  • Language(s): Français
  • License: MIT (ou ta licence, à ajuster si autre)
  • Finetuned from model: gpt2

Model Sources

Uses

Direct Use

Ce modèle peut être utilisé pour :

  • Générer des réponses naturelles en français
  • Compléter automatiquement des textes
  • Alimenter un chatbot ou un assistant vocal francophone

Downstream Use

Peut être réentraîné pour des domaines spécifiques (médical, éducatif, juridique, etc.)

Out-of-Scope Use

  • Génération de désinformation ou de discours haineux
  • Utilisation dans des environnements critiques sans validation humaine

Bias, Risks, and Limitations

Le modèle, comme tout modèle de langage, peut refléter des biais présents dans les données d'entraînement. Il peut générer :

  • Du contenu incorrect, non factuel ou inapproprié
  • Des phrases biaisées culturellement ou socialement

Recommendations

  • Toujours valider humainement les sorties dans des cas critiques
  • Éviter l’usage dans des contextes réglementés ou sensibles sans audit approfondi

How to Get Started with the Model

from transformers import GPT2LMHeadModel, GPT2Tokenizer

model = GPT2LMHeadModel.from_pretrained("paguielng/nexgenai-gpt2")
tokenizer = GPT2Tokenizer.from_pretrained("paguielng/nexgenai-gpt2")

inputs = tokenizer("Bonjour, comment puis-je vous aider aujourd'hui ?", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=50, do_sample=True)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

[![Hugging Face](https://img.shields.io/badge/HuggingFace-Model-yellow?logo=huggingface)](https://huggingface.co/paguelin9/nexgenai-gpt2)
Downloads last month
106
Safetensors
Model size
124M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for paguielng/nexgenai-gpt2

Finetuned
(1896)
this model