mBART Yemba Translation Model

Ce modèle est un fine-tuning de mBART pour la traduction entre le français et le yemba.

Utilisation

Voici comment utiliser le modèle:

from transformers import MBartForConditionalGeneration, MBart50TokenizerFast

Charger le modèle et le tokenizer

model = MBartForConditionalGeneration.from_pretrained("Dims002/mbart-yemba-translator") tokenizer = MBart50TokenizerFast.from_pretrained("Dims002/mbart-yemba-translator")

Exemple de traduction

def translate_text(text, src_lang="fr_XX", tgt_lang="yemba"): tokenizer.src_lang = src_lang encoded = tokenizer(text, return_tensors="pt") generated_tokens = model.generate(**encoded) return tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)[0]

Détails du modèle

  • Modèle de base: facebook/mbart-large-50
  • Langues: Français ↔ Yemba
  • Checkpoint: 20000

Langues supportées

  • Français (fr): Langue source principale
  • Yemba: Langue cible (langue bantoue du Cameroun)
Downloads last month
14
Safetensors
Model size
611M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Dims002/mbart-yemba-translator

Finetuned
(233)
this model