--- license: apache-2.0 language: - ja - en library_name: transformers tags: - japanese datasets: - izumi-lab/wikipedia-ja-20230720 base_model: weblab-GENIAC/Tanuki-8x8B-dpo-v1.0 --- # Tanuki-8x8B-dpo-v1.0-AWQ ## 概要 GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8x8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)のAWQ 4bit量子化モデルです。 キャリブレーションセットには[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)からランダムサンプリングした512件を利用しています。 ## 情報提供 この元モデルは独自アーキテクチャを持つモデルであるため、変換のためにAutoAWQライブラリの一部改変が必要となりました。本モデルの変換に必要な改変を施したAutoAWQを[こちら](https://github.com/team-hatakeyama-phase2/AutoAWQ)で公開しています。 また、同様の理由で本モデルをvLLMを使って推論する際にはvLLMライブラリの一部改変が必要となります。本モデルの推論に必要な改変を施したvLLMを[こちら](https://github.com/team-hatakeyama-phase2/vllm)で公開しています。 これを以下のようにソースからビルドし推論に利用してください。 ```bash git clone https://github.com/team-hatakeyama-phase2/vllm.git cd vllm LD_LIBRARY_PATH="" MAX_JOBS=16 pip install -e . ``` モデルに関する詳細については[元モデル](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)をご確認ください。