Nattapong Tapachoom commited on
Commit
b6236d5
·
1 Parent(s): b42585c

Enhance download_hf_model function to support Hugging Face token for private models and improve success message

Browse files
Files changed (1) hide show
  1. app.py +8 -2
app.py CHANGED
@@ -11,15 +11,21 @@ import requests
11
  from datetime import datetime
12
  import hashlib
13
  # Hugging Face: ฟังก์ชันดาวน์โหลดโมเดลตามชื่อ
14
- def download_hf_model(model_name, output_dir=None):
 
 
 
 
15
  try:
16
  from transformers import AutoModelForCausalLM, AutoTokenizer
17
  kwargs = {}
18
  if output_dir:
19
  kwargs['cache_dir'] = output_dir
 
 
20
  AutoTokenizer.from_pretrained(model_name, **kwargs)
21
  AutoModelForCausalLM.from_pretrained(model_name, **kwargs)
22
- return f"✅ ดาวน์โหลดโมเดล {model_name} สำเร็จที่ {output_dir if output_dir else '[default cache]'}"
23
  except Exception as e:
24
  return f"❌ ดาวน์โหลดโมเดล {model_name} ไม่สำเร็จ: {e}"
25
  # Ollama: ดึงรายชื่อโมเดล
 
11
  from datetime import datetime
12
  import hashlib
13
  # Hugging Face: ฟังก์ชันดาวน์โหลดโมเดลตามชื่อ
14
+ def download_hf_model(model_name, output_dir=None, hf_token=None):
15
+ """
16
+ ดาวน์โหลด Hugging Face model + tokenizer ไปยัง output_dir (cache_dir)
17
+ รองรับการส่ง token สำหรับ private model
18
+ """
19
  try:
20
  from transformers import AutoModelForCausalLM, AutoTokenizer
21
  kwargs = {}
22
  if output_dir:
23
  kwargs['cache_dir'] = output_dir
24
+ if hf_token:
25
+ kwargs['token'] = hf_token
26
  AutoTokenizer.from_pretrained(model_name, **kwargs)
27
  AutoModelForCausalLM.from_pretrained(model_name, **kwargs)
28
+ return f"✅ ดาวน์โหลดโมเดล {model_name} สำเร็จที่ {output_dir if output_dir else '[default cache]'}\n\nหากโมเดลเป็น private หรือ restricted กรุณาใส่ Hugging Face token ให้ถูกต้องด้วย"
29
  except Exception as e:
30
  return f"❌ ดาวน์โหลดโมเดล {model_name} ไม่สำเร็จ: {e}"
31
  # Ollama: ดึงรายชื่อโมเดล