bysq commited on
Commit
f8403ac
·
verified ·
1 Parent(s): bbac023

Upload complete merged model (LoRA weights integrated)

Browse files
Files changed (4) hide show
  1. README.md +43 -37
  2. config.json +43 -0
  3. generation_config.json +8 -0
  4. model.safetensors +3 -0
README.md CHANGED
@@ -8,71 +8,77 @@ tags:
8
  - chinese
9
  - qwen2
10
  - unsloth
 
11
  base_model: unsloth/Qwen2.5-1.5B-bnb-4bit
12
  datasets:
13
  - custom
 
14
  ---
15
 
16
- # 自闭症语言理解助手 (Autism Language Assistant)
17
 
18
- 这是一个专门帮助自闭症儿童理解语言的AI助手,基于Qwen2.5-1.5B模型微调而成。
19
 
20
- ## 模型描述
 
 
 
 
 
 
21
 
22
  该模型能够:
23
  - 分析语言中的情感和意图
24
  - 用简单清晰的语言解释复杂表达
25
  - 提供具体的回应建议
26
- - 避免使用复杂的比喻或暗示
27
 
28
  ## 使用方法
29
 
30
  ```python
31
  from transformers import AutoTokenizer, AutoModelForCausalLM
 
32
 
33
  # 加载模型和tokenizer
34
  tokenizer = AutoTokenizer.from_pretrained("bysq/autism-assistant-qwen2")
35
  model = AutoModelForCausalLM.from_pretrained("bysq/autism-assistant-qwen2")
36
 
 
 
 
37
 
38
  # 使用示例
39
- prompt = """你是一个专门帮助理解自闭症患者表达的AI助手。
40
- 原始表达:"可以把东西给我?"
41
- 自闭症患者的表达:"不你"
 
42
 
43
  请分析并回答:
44
- - 情感分析:"""
45
-
46
- # 编码输入并移到正确设备
47
- inputs = tokenizer(prompt, return_tensors="pt")
48
-
49
- # 检查模型在哪个设备上,并将输入移到同一设备
50
- device = next(model.parameters()).device
51
- inputs = {k: v.to(device) for k, v in inputs.items()}
52
-
53
- # 生成回答
54
- outputs = model.generate(
55
- **inputs,
56
- max_new_tokens=200,
57
- do_sample=True, # 需要启用采样才能使用temperature
58
- temperature=0.7,
59
- pad_token_id=tokenizer.pad_token_id
60
- )
61
-
62
- response = tokenizer.decode(outputs[0], skip_special_tokens=True)
63
- print(response)
64
  ```
65
 
66
- ## 训练数据
67
-
68
- 使用自定义的中文对话数据集,包含情感分析、意图识别和回应建议。
69
-
70
- ## 注意事项
71
-
72
- - 该模型专为辅助自闭症儿童设计
73
- - 建议在专业指导下使用
74
- - 不能替代专业医疗建议
75
-
76
  ## 许可证
77
 
78
  Apache 2.0
 
 
 
 
 
8
  - chinese
9
  - qwen2
10
  - unsloth
11
+ - merged-model
12
  base_model: unsloth/Qwen2.5-1.5B-bnb-4bit
13
  datasets:
14
  - custom
15
+ library_name: transformers
16
  ---
17
 
18
+ # 自闭症语言理解助手 (Autism Language Assistant) - 完整版
19
 
20
+ 这是一个专门帮助自闭症儿童理解语言的AI助手,基于Qwen2.5-1.5B模型微调而成。**此版本为完整合并模型,无需额外的LoRA权重。**
21
 
22
+ ## 模型特点
23
+
24
+ - ✅ **完整模型**:已将LoRA权重合并到基础模型中
25
+ - ✅ **即开即用**:无需额外配置或权重文件
26
+ - ✅ **专业设计**:专门为自闭症语言理解场景优化
27
+
28
+ ## 功能
29
 
30
  该模型能够:
31
  - 分析语言中的情感和意图
32
  - 用简单清晰的语言解释复杂表达
33
  - 提供具体的回应建议
34
+ - 理解自闭症患者的表达方式
35
 
36
  ## 使用方法
37
 
38
  ```python
39
  from transformers import AutoTokenizer, AutoModelForCausalLM
40
+ import torch
41
 
42
  # 加载模型和tokenizer
43
  tokenizer = AutoTokenizer.from_pretrained("bysq/autism-assistant-qwen2")
44
  model = AutoModelForCausalLM.from_pretrained("bysq/autism-assistant-qwen2")
45
 
46
+ # 移动到GPU(如果可用)
47
+ device = "cuda" if torch.cuda.is_available() else "cpu"
48
+ model = model.to(device)
49
 
50
  # 使用示例
51
+ def analyze_expression(original_text, autism_expression):
52
+ prompt = f'''你是一个专门帮助理解自闭症患者表达的AI助手。
53
+ 原始表达:"{original_text}"
54
+ 自闭症患者的表达:"{autism_expression}"
55
 
56
  请分析并回答:
57
+ - 情感分析:'''
58
+
59
+ inputs = tokenizer(prompt, return_tensors="pt").to(device)
60
+
61
+ with torch.no_grad():
62
+ outputs = model.generate(
63
+ **inputs,
64
+ max_new_tokens=200,
65
+ do_sample=True,
66
+ temperature=0.7,
67
+ pad_token_id=tokenizer.pad_token_id
68
+ )
69
+
70
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
71
+ return response[len(prompt):].strip()
72
+
73
+ # 测试
74
+ result = analyze_expression("可以把东西给我?", "不你")
75
+ print(result)
 
76
  ```
77
 
 
 
 
 
 
 
 
 
 
 
78
  ## 许可证
79
 
80
  Apache 2.0
81
+
82
+ ## 免责声明
83
+
84
+ 该模型仅供辅助使用,不能替代专业医疗建议。建议在专业指导下使用。
config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "Qwen2ForCausalLM"
4
+ ],
5
+ "attention_dropout": 0.0,
6
+ "eos_token_id": 151643,
7
+ "hidden_act": "silu",
8
+ "hidden_size": 1536,
9
+ "initializer_range": 0.02,
10
+ "intermediate_size": 8960,
11
+ "max_position_embeddings": 32768,
12
+ "max_window_layers": 28,
13
+ "model_type": "qwen2",
14
+ "num_attention_heads": 12,
15
+ "num_hidden_layers": 28,
16
+ "num_key_value_heads": 2,
17
+ "pad_token_id": 151654,
18
+ "quantization_config": {
19
+ "bnb_4bit_compute_dtype": "bfloat16",
20
+ "bnb_4bit_quant_type": "nf4",
21
+ "bnb_4bit_use_double_quant": true,
22
+ "llm_int8_enable_fp32_cpu_offload": false,
23
+ "llm_int8_has_fp16_weight": false,
24
+ "llm_int8_skip_modules": null,
25
+ "llm_int8_threshold": 6.0,
26
+ "load_in_4bit": true,
27
+ "load_in_8bit": false,
28
+ "quant_method": "bitsandbytes"
29
+ },
30
+ "rms_norm_eps": 1e-06,
31
+ "rope_scaling": null,
32
+ "rope_theta": 1000000.0,
33
+ "sliding_window": null,
34
+ "tie_word_embeddings": true,
35
+ "torch_dtype": "bfloat16",
36
+ "transformers_version": "4.52.4",
37
+ "unsloth_fixed": true,
38
+ "unsloth_version": "2025.6.2",
39
+ "use_cache": true,
40
+ "use_mrope": false,
41
+ "use_sliding_window": false,
42
+ "vocab_size": 151936
43
+ }
generation_config.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token_id": 151643,
3
+ "eos_token_id": 151643,
4
+ "max_length": 32768,
5
+ "max_new_tokens": 2048,
6
+ "pad_token_id": 151654,
7
+ "transformers_version": "4.52.4"
8
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1dc3bd4a4a9dc357c55fa4c571f8d32e078a952b06ec1fb5ff8aeec4bcf3849b
3
+ size 1143327483