silk-road's picture
Upload 15 files
aef3deb verified
# ChatHaruhi 3.0的接口设计
在ChatHaruhi2.0大约1个季度的使用后
我们初步知道了这样一个模型的一些需求,所以我们在这里开始设计ChatHaruhi3.0
## 基本原则
- 兼容RAG和Zeroshot模式
- 主类以返回message为主,当然可以把语言模型(adapter直接to response)的接口设置给chatbot
- 主类尽可能轻量,除了embedding没有什么依赖
## 用户代码
```python
from ChatHaruhi import ChatHaruhi
from ChatHaruhi.openai import get_openai_response
chatbot = ChatHaruhi( role_name = 'haruhi', llm = get_openai_response )
response = chatbot.chat(user = '阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?')
```
这样的好处是ChatHaruhi类载入的时候,不需要install 除了embedding以外 其他的东西,llm需要的依赖库储存在每个语言模型自己的文件里面。
zero的模式(快速新建角色)
```python
from ChatHaruhi import ChatHaruhi
from ChatHaruhi.openai import get_openai_response
chatbot = ChatHaruhi( role_name = '小猫咪', persona = "你扮演一只小猫咪", llm = get_openai_response )
response = chatbot.chat(user = '怪叔叔', text = '嘿 *抓住了小猫咪*')
```
### 外置的inference
```python
def get_response( message ):
return "语言模型输出了角色扮演的结果"
from ChatHaruhi import ChatHaruhi
chatbot = ChatHaruhi( role_name = 'haruhi' ) # 默认情况下 llm = None
message = chatbot.get_message( user = '阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?' )
response = get_response( message )
chatbot.append_message( response )
```
这个行为和下面的行为是等价的
```python
def get_response( message ):
return "语言模型输出了角色扮演的结果"
from ChatHaruhi import ChatHaruhi
chatbot = ChatHaruhi( role_name = 'haruhi', llm = get_response )
response = chatbot.chat(user = '阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?' )
```
## RAG as system prompt
在ChatHaruhi 3.0中,为了对接Haruhi-Zero的模型,默认system会采用一致的形式
```python
You are now in roleplay conversation mode. Pretend to be {role_name} whose persona follows:
{persona}
You will stay in-character whenever possible, and generate responses as if you were {role_name}
```
Persona在类似pygmalion的生态中,一般是静态的
```
bot的定义
###
bot的聊天sample 1
###
bot的聊天sample 2
```
注意我们使用了 ### 作为分割, pyg生态是<endOftext>这样一个special token
所以对于原有的ChatHaruhi的Persona,我决定这样设计
```
bot的定义
{{RAG对话}}
{{RAG对话}}
{{RAG对话}}
```
这里"{{RAG对话}}"直接是以单行字符串的形式存在,当ChatHaruhi类发现这个的时候,会自动计算RAG,以凉宫春日为例,他的persona直接就写成。同时也支持纯英文 {{RAG-dialogue}}
```
你正在扮演凉宫春日,你正在cosplay涼宮ハルヒ。
上文给定了一些小说中的经典桥段。
如果我问的问题和小说中的台词高度重复,那你就配合我进行演出。
如果我问的问题和小说中的事件相关,请结合小说的内容进行回复
如果我问的问题超出小说中的范围,请也用一致性的语气回复。
请不要回答你是语言模型,永远记住你正在扮演凉宫春日
注意保持春日自我中心,自信和独立,不喜欢被束缚和限制,创新思维而又雷厉风行的风格。
特别是针对阿虚,春日肯定是希望阿虚以自己和sos团的事情为重。
{{RAG对话}}
{{RAG对话}}
{{RAG对话}}
```
这个时候每个{{RAG对话}}会自动替换成
```
###
对话
```
### RAG对话的变形形式1,max-token控制的多对话
因为在原有的ChatHaruhi结构中,我们支持max-token的形式来控制RAG对话的数量
所以这里我们也支持使用
```
{{RAG多对话|token<=1500|n<=5}}
```
这样的设计,这样会retrieve出最多不超过n段对话,总共不超过token个数个对话。对于英文用户为{{RAG-dialogues|token<=1500|n<=5}}
### RAG对话的变形形式2,使用|进行后面语句的搜索
在默认情况下,"{{RAG对话}}"的搜索对象是text的输入,但是我们预想到用户还会用下面的方式来构造persona
```
小A是一个智能的机器人
当小A高兴时
{{RAG对话|高兴的对话}}
当小A伤心时
{{RAG对话|伤心的对话}}
这个时候我们支持使用""{{RAG对话|<不包含花括号的一个字符串>}}"" 来进行RAG
```
## get_message
get_message会返回一个类似openai message形式的message
```
[{"role":"system","content":整个system prompt},
{"role":"user","content":用户的输入},
{"role":"assistant","content":模型的输出},
...]
```
原则上来说,如果使用openai,可以直接使用
```python
def get_response( messages ):
completion = client.chat.completions.create(
model="gpt-3.5-turbo-1106",
messages=messages,
temperature=0.3
)
return completion.choices[0].message.content
```
对于异步的实现
```python
async def async_get_response( messages ):
resp = await aclient.chat.completions.create(
model=model,
messages=messages,
temperature=0.3,
)
return result
```
### async_chat的调用
设计上也会去支持
```python
async def get_response( message ):
return "语言模型输出了角色扮演的结果"
from ChatHaruhi import ChatHaruhi
chatbot = ChatHaruhi( role_name = 'haruhi', llm_async = get_response )
response = await chatbot.async_chat(user='阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?' )
```
这样异步的调用
# 角色载入
如果这样看来,新的ChatHaruhi3.0需要以下信息
- persona 这个是必须的
- role_name, 在后处理的时候,把 {{role}} 和 {{角色}} 替换为这个字段, 这个字段不能为空,因为system prompt使用了这个字段,如果要支持这个字段为空,我们要额外设计一个备用prompt
- user_name, 在后处理的时候,把 {{用户}} 和 {{user}} 替换为这个字段,如果不设置也可以不替换
- RAG库, 当RAG库为空的时候,所有{{RAG*}}就直接删除了
## role_name载入
语法糖载入,不支持用户自己搞新角色,这个时候我们可以完全使用原来的数据
额外需要设置一个role_name
## role_from_jsonl载入
这个时候我们需要设置role_name
如果不设置我们会抛出一个error
## role_from_hf
本质上就是role_from_jsonl
## 分别设置persona和role_name
这个时候作为新人物考虑,默认没有RAG库,即Zero模式
## 分别设置persona, role_name, texts
这个时候会为texts再次抽取vectors
## 分别设置persona, role_name, texts, vecs
# 额外变量
## max_input_token
默认为1600,会根据这个来限制history的长度
## user_name_in_message
(这个功能在现在的预期核心代码中还没实现)
默认为'default', 当用户始终用同一个user_name和角色对话的时候,并不添加
如果用户使用不同的role和chatbot聊天 user_name_in_message 会改为 'add' 并在每个message标记是谁说的
(bot的也会添加)
并且user_name替换为最后一个调用的user_name
如果'not_add' 则永远不添加
S MSG_U1 MSG_A MSG_U1 MSG_A
当出现U2后
S, U1:MSG_U1, A:MSG_A, U1:MSG_U1, A:MSG_A, U2:MSG_U2
## token_counter
tokenizer默认为gpt3.5的tiktoken,设置为None的时候,不进行任何的token长度限制
## transfer_haruhi_2_zero
(这个功能在现在的预期核心代码中还没实现)
默认为true
把原本ChatHaruhi的 角色: 「对话」的格式,去掉「」
# Embedding
中文考虑用bge_small
Cross language考虑使用bce,相对还比较小, bge-m3太大了
也就是ChatHaruhi类会有默认的embedding
self.embedding = ChatHaruhi.bge_small
对于输入的文本,我们会使用这个embedding来进行encode然后进行检索替换掉RAG的内容
# 辅助接口
## save_to_jsonl
把一个角色保存成jsonl格式,方便上传hf
# 预计的伪代码
这里的核心就是去考虑ChatHaruhi下get_message函数的伪代码
```python
class ChatHaruhi:
def __init__( self ):
pass
def rag_retrieve( self, query_rags, rest_limit ):
# 返回一个rag_ids的列表
retrieved_ids = []
rag_ids = []
for query_rag in query_rags:
query = query_rag['query']
n = query_rag['n']
max_token = rest_limit
if rest_limit > query_rag['max_token'] and query_rag['max_token'] > 0:
max_token = query_rag['max_token']
rag_id = self.rag_retrieve( query, n, max_token, avoid_ids = retrieved_ids )
rag_ids.append( rag_id )
retrieved_ids += rag_id
def get_message(self, user, text):
query_token = self.token_counter( text )
# 首先获取需要多少个rag story
query_rags, persona_token = self.parse_persona( self.persona, text )
#每个query_rag需要饱含
# "n" 需要几个story
# "max_token" 最多允许多少个token,如果-1则不限制
# "query" 需要查询的内容
# "lid" 需要替换的行,这里直接进行行替换,忽视行的其他内容
rest_limit = self.max_input_token - persona_token - query_token
rag_ids = self.rag_retrieve( query_rags, rest_limit )
# 将rag_ids对应的故事 替换到persona中
augmented_persona = self.augment_persona( self.persona, rag_ids )
system_prompt = self.package_system_prompt( self.role_name, augmented_persona )
token_for_system = self.token_counter( system_prompt )
rest_limit = self.max_input_token - token_for_system - query_token
messages = [{"role":"system","content":system_prompt}]
messages = self.append_history_under_limit( messages, rest_limit )
messages.append({"role":"user",query})
return messages
```