SSan22 commited on
Commit
6d907cd
·
verified ·
1 Parent(s): aef120d

Update README.md

Browse files

Le modèle utilise l'architecture text-to-text de T5, ce qui le rend particulièrement adapté à la tâche de correction grammaticale. Nous avons fine-tuné le modèle en utilisant un taux d'apprentissage de 5e-5 et une taille de batch de 32. L'entraînement a été effectué sur une GPU NVIDIA Tesla V100 pendant 24 heures.

Files changed (1) hide show
  1. README.md +16 -3
README.md CHANGED
@@ -1,3 +1,16 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ datasets:
4
+ - Lots-of-LoRAs/task1557_jfleg_answer_generation
5
+ language:
6
+ - fr
7
+ - ar
8
+ metrics:
9
+ - bleu
10
+ base_model:
11
+ - HuggingFaceH4/zephyr-7b-beta
12
+ new_version: deepseek-ai/DeepSeek-R1
13
+ pipeline_tag: text2text-generation
14
+ tags:
15
+ - education
16
+ ---