研究用モデル(Gemma-3-4B-IT)
このモデルは研究利用目的でのGemma-3-4B-ITです。元モデルの重みをそのままコピーしたものであり、追加学習や事後学習は一切行っていません。
重要な注記
⚠️ このモデルは追加学習していません ⚠️
- 元のGemma-3-4B-ITの重みをそのままコピー
- ファインチューニングや事後学習は実施していません
- 研究の再現性向上のために保存
モデル詳細
- ベースモデル: google/gemma-3-4b-it
- 変更内容: なし(元モデルと同一)
- 目的: 研究利用・実験再現性向上
- 言語: 日本語・英語(元モデルと同様)
- 精度: bfloat16
使用方法
from transformers import AutoProcessor, Gemma3ForConditionalGeneration
processor = AutoProcessor.from_pretrained("hotaru14/gemma-3-4b-it-copy")
model = Gemma3ForConditionalGeneration.from_pretrained("hotaru14/gemma-3-4b-it-copy")
パフォーマンス
- VRAM使用量: 約8GB (bfloat16)
- 推論速度: 元モデルと同等
- 精度: 元モデルと同等
利用目的
- 研究プロジェクトでの実験再現
- プロトタイピング・概念実証
- 教育・学習目的での利用
- ベンチマーク・評価実験
注意事項
- 研究利用専用: 本モデルは研究目的での利用を想定しています
- 事後学習なし: 元モデルの能力・制限をそのまま継承しています
- 商用利用: Apache 2.0ライセンスに従い、適切な帰属表示が必要です
- GPU推奨: CUDA対応GPUでの使用を推奨します
ライセンス
元モデル(google/gemma-3-4b-it)のApache 2.0ライセンスに従います。
作成日時: 2025-05-24T04:37:49.461197
- Downloads last month
- 21
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support