Nattapong Tapachoom
commited on
Commit
·
35c0263
1
Parent(s):
b6236d5
- app.py +32 -1
- requirements.txt +1 -0
app.py
CHANGED
@@ -1,3 +1,17 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
import gradio as gr
|
2 |
import os
|
3 |
import json
|
@@ -989,8 +1003,25 @@ with gr.Blocks(title="Dataset Generator System", theme=gr.themes.Soft()) as demo
|
|
989 |
value="http://localhost:11434",
|
990 |
info="สำหรับ Ollama หรือ local LLM server"
|
991 |
)
|
992 |
-
|
993 |
with gr.Row():
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
994 |
# Get available models and set appropriate default
|
995 |
available_models = get_ollama_models()
|
996 |
default_model = available_models[0] if available_models else "llama3.2"
|
|
|
1 |
+
# วิธีใช้งาน:
|
2 |
+
# 1. หากต้องการโหลดโมเดล private หรือโมเดลที่ต้องใช้ token ให้รันใน terminal:
|
3 |
+
# huggingface-cli login
|
4 |
+
# แล้ว login ด้วยบัญชี Hugging Face
|
5 |
+
# 2. หรือ เพิ่ม argument token ใน from_pretrained เช่น:
|
6 |
+
# สรุปการทำงาน:
|
7 |
+
# - ถ้า login ด้วย huggingface-cli login จะใช้ token จากเครื่องอัตโนมัติ โหลดโมเดล public/private ได้เลย
|
8 |
+
# - ถ้าไม่ login ให้กรอก token ใน argument ของ from_pretrained ทุกครั้งที่โหลดโมเดล
|
9 |
+
# - ตัวอย่าง:
|
10 |
+
# tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-0.5B", token="hf_xxx")
|
11 |
+
# model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-0.5B", token="hf_xxx")
|
12 |
+
# - ถ้าโมเดล public ไม่ต้อง login หรือใส่ token ก็โหลดได้ทันที
|
13 |
+
# tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-0.5B", token="YOUR_TOKEN")
|
14 |
+
# model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-0.5B", token="YOUR_TOKEN")
|
15 |
import gradio as gr
|
16 |
import os
|
17 |
import json
|
|
|
1003 |
value="http://localhost:11434",
|
1004 |
info="สำหรับ Ollama หรือ local LLM server"
|
1005 |
)
|
1006 |
+
|
1007 |
with gr.Row():
|
1008 |
+
hf_token = gr.Textbox(
|
1009 |
+
label="Hugging Face Token (สำหรับโหลดโมเดล private)",
|
1010 |
+
type="password",
|
1011 |
+
placeholder="กรอก HF Token ที่นี่"
|
1012 |
+
)
|
1013 |
+
hf_login_btn = gr.Button("Login Hugging Face", variant="primary")
|
1014 |
+
def login_hf(token):
|
1015 |
+
import os
|
1016 |
+
os.environ["HF_TOKEN"] = token
|
1017 |
+
return "Token ถูกตั้งค่าสำเร็จ"
|
1018 |
+
hf_login_status = gr.Textbox(label="สถานะการ Login", interactive=False)
|
1019 |
+
hf_login_btn.click(
|
1020 |
+
fn=login_hf,
|
1021 |
+
inputs=[hf_token],
|
1022 |
+
outputs=[hf_login_status]
|
1023 |
+
)
|
1024 |
+
|
1025 |
# Get available models and set appropriate default
|
1026 |
available_models = get_ollama_models()
|
1027 |
default_model = available_models[0] if available_models else "llama3.2"
|
requirements.txt
CHANGED
@@ -8,3 +8,4 @@ torch>=1.12.0
|
|
8 |
huggingface-hub>=0.16.0
|
9 |
pyarrow>=10.0.0
|
10 |
huggingface_hub[hf_xet]
|
|
|
|
8 |
huggingface-hub>=0.16.0
|
9 |
pyarrow>=10.0.0
|
10 |
huggingface_hub[hf_xet]
|
11 |
+
hf_xet
|