SOAR Model with PEFT (Parameter-Efficient Fine-Tuning)
📌 概要
このドキュメントでは、SOARモデルにPEFT(パラメータ効率的ファインチューニング)を適用した実装方法を紹介します。PEFTは大規模な言語モデルを効率よく微調整するための手法で、SOARモデルにこの技術を適用することにより、少ないパラメータで効果的に適応させることができます。
🚀 必要なライブラリ
- transformers: Hugging Face Transformersライブラリ
- peft: PEFT用のライブラリ
以下のコマンドでライブラリをインストールします。
pip install transformers peft
🔧 モデルの準備
以下のコードを使用して、SOARモデルをPEFTを使ってロードします。
from peft import PeftModel
from transformers import AutoModelForCausalLM
# ベースモデルのロード
base_model = AutoModelForCausalLM.from_pretrained("HuggingFaceTB/SmolLM2-360M-Instruct")
# SOAR用のアダプターを適用
model = PeftModel.from_pretrained(base_model, "summerstars/Soar_adapter")
このコードは、Hugging Faceから事前訓練済みのSmolLM2-360M-Instruct
をベースにし、summerstars/Soar_adapter
というPEFTアダプターを適用するものです。
💬 推論の実行
モデルをロードした後、推論を実行するコードは以下の通りです。
from transformers import pipeline
# パイプラインの設定
soar_pipeline = pipeline(
"text-generation",
model=model,
tokenizer=base_model.tokenizer # ベースモデルのトークナイザーを使用
)
# 推論関数の定義
def generate_soar_text(prompt, max_length=200, temperature=0.7, top_p=0.95, top_k=50):
response = soar_pipeline(prompt, max_length=max_length, temperature=temperature, top_p=top_p, top_k=top_k, do_sample=True)
return response[0]["generated_text"]
# 例: 推論の実行
soar_prompt = "What is the future of AI?"
print("【SOAR Model Output】")
print(generate_soar_text(soar_prompt))
⚠ 免責事項
- このコードは研究目的で作成されたものであり、商用利用を意図していません。
- PEFTを適用したモデルの最適化にはさらに調整が必要な場合があります。
🧠 参考文献
- Laird, J. E. (2012). The SOAR Cognitive Architecture. MIT Press.
- PEFT論文: Parameter-Efficient Fine-Tuning by Houlsby et al. (2019)
📜 ライセンス
このプロジェクトは Apache 2.0
ライセンスのもとで公開されています。
- Downloads last month
- 3
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
HF Inference deployability: The model has no pipeline_tag.
Model tree for summerstars/Soar_adapter
Base model
HuggingFaceTB/SmolLM2-360M-Instruct