tokyotech-llm-Swallow-MS-7b-v0.1-gguf

tokyotech-llmさんが公開しているSwallow-MS-7b-v0.1のggufフォーマット変換版です。 こちらはベースモデルになります。

他のモデル

mmnga/tokyotech-llm-Swallow-7b-plus-hf-gguf
mmnga/tokyotech-llm-Swallow-MS-7b-v0.1-gguf
mmnga/tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-gguf

Usage

git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'tokyotech-llm-Swallow-MS-7b-v0.1-q4_0.gguf' -p "今晩の夕食をご紹介します。" -n 128 
Downloads last month
682
GGUF
Model size
7.33B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support