Nattapong Tapachoom
commited on
Commit
·
b6236d5
1
Parent(s):
b42585c
Enhance download_hf_model function to support Hugging Face token for private models and improve success message
Browse files
app.py
CHANGED
@@ -11,15 +11,21 @@ import requests
|
|
11 |
from datetime import datetime
|
12 |
import hashlib
|
13 |
# Hugging Face: ฟังก์ชันดาวน์โหลดโมเดลตามชื่อ
|
14 |
-
def download_hf_model(model_name, output_dir=None):
|
|
|
|
|
|
|
|
|
15 |
try:
|
16 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
17 |
kwargs = {}
|
18 |
if output_dir:
|
19 |
kwargs['cache_dir'] = output_dir
|
|
|
|
|
20 |
AutoTokenizer.from_pretrained(model_name, **kwargs)
|
21 |
AutoModelForCausalLM.from_pretrained(model_name, **kwargs)
|
22 |
-
return f"✅ ดาวน์โหลดโมเดล {model_name} สำเร็จที่ {output_dir if output_dir else '[default cache]'}"
|
23 |
except Exception as e:
|
24 |
return f"❌ ดาวน์โหลดโมเดล {model_name} ไม่สำเร็จ: {e}"
|
25 |
# Ollama: ดึงรายชื่อโมเดล
|
|
|
11 |
from datetime import datetime
|
12 |
import hashlib
|
13 |
# Hugging Face: ฟังก์ชันดาวน์โหลดโมเดลตามชื่อ
|
14 |
+
def download_hf_model(model_name, output_dir=None, hf_token=None):
|
15 |
+
"""
|
16 |
+
ดาวน์โหลด Hugging Face model + tokenizer ไปยัง output_dir (cache_dir)
|
17 |
+
รองรับการส่ง token สำหรับ private model
|
18 |
+
"""
|
19 |
try:
|
20 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
21 |
kwargs = {}
|
22 |
if output_dir:
|
23 |
kwargs['cache_dir'] = output_dir
|
24 |
+
if hf_token:
|
25 |
+
kwargs['token'] = hf_token
|
26 |
AutoTokenizer.from_pretrained(model_name, **kwargs)
|
27 |
AutoModelForCausalLM.from_pretrained(model_name, **kwargs)
|
28 |
+
return f"✅ ดาวน์โหลดโมเดล {model_name} สำเร็จที่ {output_dir if output_dir else '[default cache]'}\n\nหากโมเดลเป็น private หรือ restricted กรุณาใส่ Hugging Face token ให้ถูกต้องด้วย"
|
29 |
except Exception as e:
|
30 |
return f"❌ ดาวน์โหลดโมเดล {model_name} ไม่สำเร็จ: {e}"
|
31 |
# Ollama: ดึงรายชื่อโมเดล
|