metadata
language:
- zh
license: apache-2.0
tags:
- autism
- assistant
- chinese
- qwen2
- unsloth
- merged-model
base_model: unsloth/Qwen2.5-1.5B-bnb-4bit
datasets:
- custom
library_name: transformers
自闭症语言理解助手 (Autism Language Assistant) - 完整版
这是一个专门帮助自闭症儿童理解语言的AI助手,基于Qwen2.5-1.5B模型微调而成。此版本为完整合并模型,无需额外的LoRA权重。
模型特点
- ✅ 完整模型:已将LoRA权重合并到基础模型中
- ✅ 即开即用:无需额外配置或权重文件
- ✅ 专业设计:专门为自闭症语言理解场景优化
功能
该模型能够:
- 分析语言中的情感和意图
- 用简单清晰的语言解释复杂表达
- 提供具体的回应建议
- 理解自闭症患者的表达方式
使用方法
先安装其他库
!pip install bitsandbytes accelerate
!pip install transformers torch
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# 加载模型和tokenizer
tokenizer = AutoTokenizer.from_pretrained("bysq/autism-assistant-qwen2")
model = AutoModelForCausalLM.from_pretrained("bysq/autism-assistant-qwen2")
# 移动到GPU(如果可用)
device = "cuda" if torch.cuda.is_available() else "cpu"
model = model.to(device)
# 使用示例
def analyze_expression(original_text, autism_expression):
prompt = f'''你是一个专门帮助理解自闭症患者表达的AI助手。
原始表达:"{original_text}"
自闭症患者的表达:"{autism_expression}"
请分析并回答:
- 情感分析:'''
inputs = tokenizer(prompt, return_tensors="pt").to(device)
with torch.no_grad():
outputs = model.generate(
**inputs,
max_new_tokens=200,
do_sample=True,
temperature=0.7,
pad_token_id=tokenizer.pad_token_id
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
return response[len(prompt):].strip()
# 测试
result = analyze_expression("可以把东西给我?", "不你")
print(result)
许可证
Apache 2.0
免责声明
该模型仅供辅助使用,不能替代专业医疗建议。建议在专业指导下使用。