File size: 4,101 Bytes
ccbdaf5
596ba9a
 
ccbdaf5
 
 
596ba9a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ccbdaf5
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
---
title: Chatbot_ChatGLM4
app_file: trans_cli_vision_gradio_demo.py
sdk: gradio
sdk_version: 4.36.1
---
# Basic Demo

Read this in [English](README_en.md).

本 demo 中,你将体验到如何使用 GLM-4-9B 开源模型进行基本的任务。

请严格按照文档的步骤进行操作,以避免不必要的错误。

## 设备和依赖检查

### 相关推理测试数据

**本文档的数据均在以下硬件环境测试,实际运行环境需求和运行占用的显存略有不同,请以实际运行环境为准。**

测试硬件信息:

+ OS: Ubuntu 22.04
+ Memory: 512GB
+ Python: 3.10.12 (推荐) / 3.12.3 均已测试
+ CUDA Version:  12.3
+ GPU Driver: 535.104.05
+ GPU: NVIDIA A100-SXM4-80GB * 8

相关推理的压力测试数据如下:

**所有测试均在单张GPU上进行测试,所有显存消耗都按照峰值左右进行测算**

#### GLM-4-9B-Chat

| 精度   | 显存占用  | Prefilling | Decode Speed  | Remarks      |
|------|-------|------------|---------------|--------------|
| BF16 | 19 GB | 0.2s       | 27.8 tokens/s | 输入长度为 1000   |
| BF16 | 21 GB | 0.8s       | 31.8 tokens/s | 输入长度为 8000   |
| BF16 | 28 GB | 4.3s       | 14.4 tokens/s | 输入长度为 32000  |
| BF16 | 58 GB | 38.1s      | 3.4  tokens/s | 输入长度为 128000 |

| 精度   | 显存占用  | Prefilling | Decode Speed  | Remarks     |
|------|-------|------------|---------------|-------------|
| INT4 | 8 GB  | 0.2s       | 23.3 tokens/s | 输入长度为 1000  |
| INT4 | 10 GB | 0.8s       | 23.4 tokens/s | 输入长度为 8000  |
| INT4 | 17 GB | 4.3s       | 14.6 tokens/s | 输入长度为 32000 |

### GLM-4-9B-Chat-1M

| 精度   | 显存占用  | Prefilling | Decode Speed | Remarks      |
|------|-------|------------|--------------|--------------|
| BF16 | 75 GB | 98.4s      | 2.3 tokens/s | 输入长度为 200000 |

如果您的输入超过200K,我们建议您使用vLLM后端进行多卡推理,以获得更好的性能。

#### GLM-4V-9B

| 精度   | 显存占用  | Prefilling | Decode Speed  | Remarks    |
|------|-------|------------|---------------|------------|
| BF16 | 28 GB | 0.1s       | 33.4 tokens/s | 输入长度为 1000 |
| BF16 | 33 GB | 0.7s       | 39.2 tokens/s | 输入长度为 8000 |

| 精度   | 显存占用  | Prefilling | Decode Speed  | Remarks    |
|------|-------|------------|---------------|------------|
| INT4 | 10 GB | 0.1s       | 28.7 tokens/s | 输入长度为 1000 |
| INT4 | 15 GB | 0.8s       | 24.2 tokens/s | 输入长度为 8000 |

### 最低硬件要求

如果您希望运行官方提供的最基础代码 (transformers 后端) 您需要:

+ Python >= 3.10
+ 内存不少于 32 GB

如果您希望运行官方提供的本文件夹的所有代码,您还需要:

+ Linux 操作系统 (Debian 系列最佳)
+ 大于 8GB 显存的,支持 CUDA 或者 ROCM 并且支持 `BF16` 推理的 GPU 设备。(`FP16` 精度无法训练,推理有小概率出现问题)

安装依赖

```shell
pip install -r requirements.txt
```

## 基础功能调用

**除非特殊说明,本文件夹所有 demo 并不支持 Function Call 和 All Tools 等进阶用法**

### 使用 transformers 后端代码

+ 使用命令行与 GLM-4-9B 模型进行对话。

```shell
python trans_cli_demo.py # GLM-4-9B-Chat
python trans_cli_vision_demo.py # GLM-4V-9B
```

+ 使用 Gradio 网页端与 GLM-4-9B-Chat 模型进行对话。

```shell
python trans_web_demo.py
```

+ 使用 Batch 推理。

```shell
python cli_batch_request_demo.py
```

### 使用 vLLM 后端代码

+ 使用命令行与 GLM-4-9B-Chat 模型进行对话。

```shell
python vllm_cli_demo.py
```

+ 自行构建服务端,并使用 `OpenAI API` 的请求格式与 GLM-4-9B-Chat 模型进行对话。本 demo 支持 Function Call 和 All Tools功能。

启动服务端:

```shell
python openai_api_server.py
```

客户端请求:

```shell
python openai_api_request.py
```

## 压力测试

用户可以在自己的设备上使用本代码测试模型在 transformers后端的生成速度:

```shell
python trans_stress_test.py
```