Nattapong Tapachoom commited on
Commit
35c0263
·
1 Parent(s): b6236d5
Files changed (2) hide show
  1. app.py +32 -1
  2. requirements.txt +1 -0
app.py CHANGED
@@ -1,3 +1,17 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  import gradio as gr
2
  import os
3
  import json
@@ -989,8 +1003,25 @@ with gr.Blocks(title="Dataset Generator System", theme=gr.themes.Soft()) as demo
989
  value="http://localhost:11434",
990
  info="สำหรับ Ollama หรือ local LLM server"
991
  )
992
-
993
  with gr.Row():
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
994
  # Get available models and set appropriate default
995
  available_models = get_ollama_models()
996
  default_model = available_models[0] if available_models else "llama3.2"
 
1
+ # วิธีใช้งาน:
2
+ # 1. หากต้องการโหลดโมเดล private หรือโมเดลที่ต้องใช้ token ให้รันใน terminal:
3
+ # huggingface-cli login
4
+ # แล้ว login ด้วยบัญชี Hugging Face
5
+ # 2. หรือ เพิ่ม argument token ใน from_pretrained เช่น:
6
+ # สรุปการทำงาน:
7
+ # - ถ้า login ด้วย huggingface-cli login จะใช้ token จากเครื่องอัตโนมัติ โหลดโมเดล public/private ได้เลย
8
+ # - ถ้าไม่ login ให้กรอก token ใน argument ของ from_pretrained ทุกครั้งที่โหลดโมเดล
9
+ # - ตัวอย่าง:
10
+ # tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-0.5B", token="hf_xxx")
11
+ # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-0.5B", token="hf_xxx")
12
+ # - ถ้าโมเดล public ไม่ต้อง login หรือใส่ token ก็โหลดได้ทันที
13
+ # tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-0.5B", token="YOUR_TOKEN")
14
+ # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-0.5B", token="YOUR_TOKEN")
15
  import gradio as gr
16
  import os
17
  import json
 
1003
  value="http://localhost:11434",
1004
  info="สำหรับ Ollama หรือ local LLM server"
1005
  )
1006
+
1007
  with gr.Row():
1008
+ hf_token = gr.Textbox(
1009
+ label="Hugging Face Token (สำหรับโหลดโมเดล private)",
1010
+ type="password",
1011
+ placeholder="กรอก HF Token ที่นี่"
1012
+ )
1013
+ hf_login_btn = gr.Button("Login Hugging Face", variant="primary")
1014
+ def login_hf(token):
1015
+ import os
1016
+ os.environ["HF_TOKEN"] = token
1017
+ return "Token ถูกตั้งค่าสำเร็จ"
1018
+ hf_login_status = gr.Textbox(label="สถานะการ Login", interactive=False)
1019
+ hf_login_btn.click(
1020
+ fn=login_hf,
1021
+ inputs=[hf_token],
1022
+ outputs=[hf_login_status]
1023
+ )
1024
+
1025
  # Get available models and set appropriate default
1026
  available_models = get_ollama_models()
1027
  default_model = available_models[0] if available_models else "llama3.2"
requirements.txt CHANGED
@@ -8,3 +8,4 @@ torch>=1.12.0
8
  huggingface-hub>=0.16.0
9
  pyarrow>=10.0.0
10
  huggingface_hub[hf_xet]
 
 
8
  huggingface-hub>=0.16.0
9
  pyarrow>=10.0.0
10
  huggingface_hub[hf_xet]
11
+ hf_xet