Update main.py
Browse files
main.py
CHANGED
@@ -27,10 +27,11 @@ logging.basicConfig(level=logging.INFO)
|
|
27 |
import os
|
28 |
os.environ["TRANSFORMERS_CACHE"] = "./cache"
|
29 |
os.environ["HF_HOME"] = "./cache"
|
|
|
30 |
|
31 |
TEXT_MODEL_NAME = "aubmindlab/aragpt2-base"
|
32 |
-
text_tokenizer = AutoTokenizer.from_pretrained(TEXT_MODEL_NAME,
|
33 |
-
text_model = AutoModelForCausalLM.from_pretrained(TEXT_MODEL_NAME,
|
34 |
|
35 |
general_prompt_template = """
|
36 |
أنت الآن نموذج لغة مخصص لتوليد نصوص عربية تعليمية بناءً على المادة والمستوى التعليمي. سيتم إعطاؤك مادة تعليمية ومستوى تعليمي، وعليك إنشاء نص مناسب بناءً على ذلك. النص يجب أن يكون:
|
@@ -89,8 +90,8 @@ def generate_text(request: GenerateTextRequest):
|
|
89 |
# Question & Answer Generation Model
|
90 |
####################################
|
91 |
QA_MODEL_NAME = "Mihakram/AraT5-base-question-generation"
|
92 |
-
qa_tokenizer = AutoTokenizer.from_pretrained(QA_MODEL_NAME)
|
93 |
-
qa_model = AutoModelForSeq2SeqLM.from_pretrained(QA_MODEL_NAME)
|
94 |
|
95 |
def extract_answer(context: str) -> str:
|
96 |
"""Extract the first sentence (or a key phrase) from the context."""
|
|
|
27 |
import os
|
28 |
os.environ["TRANSFORMERS_CACHE"] = "./cache"
|
29 |
os.environ["HF_HOME"] = "./cache"
|
30 |
+
HF_TOKEN = os.getenv("manhal")
|
31 |
|
32 |
TEXT_MODEL_NAME = "aubmindlab/aragpt2-base"
|
33 |
+
text_tokenizer = AutoTokenizer.from_pretrained(TEXT_MODEL_NAME, token = HF_TOKEN)
|
34 |
+
text_model = AutoModelForCausalLM.from_pretrained(TEXT_MODEL_NAME, token = HF_TOKEN)
|
35 |
|
36 |
general_prompt_template = """
|
37 |
أنت الآن نموذج لغة مخصص لتوليد نصوص عربية تعليمية بناءً على المادة والمستوى التعليمي. سيتم إعطاؤك مادة تعليمية ومستوى تعليمي، وعليك إنشاء نص مناسب بناءً على ذلك. النص يجب أن يكون:
|
|
|
90 |
# Question & Answer Generation Model
|
91 |
####################################
|
92 |
QA_MODEL_NAME = "Mihakram/AraT5-base-question-generation"
|
93 |
+
qa_tokenizer = AutoTokenizer.from_pretrained(QA_MODEL_NAME, token = HF_TOKEN)
|
94 |
+
qa_model = AutoModelForSeq2SeqLM.from_pretrained(QA_MODEL_NAME, token = HF_TOKEN)
|
95 |
|
96 |
def extract_answer(context: str) -> str:
|
97 |
"""Extract the first sentence (or a key phrase) from the context."""
|