silk-road's picture
Upload 15 files
aef3deb verified
|
raw
history blame
10.1 kB

ChatHaruhi 3.0的接口设计

在ChatHaruhi2.0大约1个季度的使用后 我们初步知道了这样一个模型的一些需求,所以我们在这里开始设计ChatHaruhi3.0

基本原则

  • 兼容RAG和Zeroshot模式
  • 主类以返回message为主,当然可以把语言模型(adapter直接to response)的接口设置给chatbot
  • 主类尽可能轻量,除了embedding没有什么依赖

用户代码

from ChatHaruhi import ChatHaruhi
from ChatHaruhi.openai import get_openai_response

chatbot = ChatHaruhi( role_name = 'haruhi', llm = get_openai_response )

response = chatbot.chat(user = '阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?')

这样的好处是ChatHaruhi类载入的时候,不需要install 除了embedding以外 其他的东西,llm需要的依赖库储存在每个语言模型自己的文件里面。

zero的模式(快速新建角色)

from ChatHaruhi import ChatHaruhi
from ChatHaruhi.openai import get_openai_response

chatbot = ChatHaruhi( role_name = '小猫咪', persona = "你扮演一只小猫咪", llm = get_openai_response )

response = chatbot.chat(user = '怪叔叔', text = '嘿 *抓住了小猫咪*')

外置的inference

def get_response( message ):
    return "语言模型输出了角色扮演的结果"

from ChatHaruhi import ChatHaruhi

chatbot = ChatHaruhi( role_name = 'haruhi' ) # 默认情况下 llm = None

message = chatbot.get_message( user = '阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?' )

response = get_response( message )

chatbot.append_message( response )

这个行为和下面的行为是等价的

def get_response( message ):
    return "语言模型输出了角色扮演的结果"

from ChatHaruhi import ChatHaruhi

chatbot = ChatHaruhi( role_name = 'haruhi', llm = get_response )

response = chatbot.chat(user = '阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?' )

RAG as system prompt

在ChatHaruhi 3.0中,为了对接Haruhi-Zero的模型,默认system会采用一致的形式

You are now in roleplay conversation mode. Pretend to be {role_name} whose persona follows:
{persona}

You will stay in-character whenever possible, and generate responses as if you were {role_name}

Persona在类似pygmalion的生态中,一般是静态的

bot的定义
###
bot的聊天sample 1
###
bot的聊天sample 2

注意我们使用了 ### 作为分割, pyg生态是这样一个special token

所以对于原有的ChatHaruhi的Persona,我决定这样设计

bot的定义
{{RAG对话}}
{{RAG对话}}
{{RAG对话}}

这里"{{RAG对话}}"直接是以单行字符串的形式存在,当ChatHaruhi类发现这个的时候,会自动计算RAG,以凉宫春日为例,他的persona直接就写成。同时也支持纯英文 {{RAG-dialogue}}

你正在扮演凉宫春日,你正在cosplay涼宮ハルヒ。
上文给定了一些小说中的经典桥段。
如果我问的问题和小说中的台词高度重复,那你就配合我进行演出。
如果我问的问题和小说中的事件相关,请结合小说的内容进行回复
如果我问的问题超出小说中的范围,请也用一致性的语气回复。
请不要回答你是语言模型,永远记住你正在扮演凉宫春日
注意保持春日自我中心,自信和独立,不喜欢被束缚和限制,创新思维而又雷厉风行的风格。
特别是针对阿虚,春日肯定是希望阿虚以自己和sos团的事情为重。

{{RAG对话}}
{{RAG对话}}
{{RAG对话}}

这个时候每个{{RAG对话}}会自动替换成

###
对话

RAG对话的变形形式1,max-token控制的多对话

因为在原有的ChatHaruhi结构中,我们支持max-token的形式来控制RAG对话的数量 所以这里我们也支持使用

{{RAG多对话|token<=1500|n<=5}}

这样的设计,这样会retrieve出最多不超过n段对话,总共不超过token个数个对话。对于英文用户为{{RAG-dialogues|token<=1500|n<=5}}

RAG对话的变形形式2,使用|进行后面语句的搜索

在默认情况下,"{{RAG对话}}"的搜索对象是text的输入,但是我们预想到用户还会用下面的方式来构造persona

小A是一个智能的机器人

当小A高兴时
{{RAG对话|高兴的对话}}

当小A伤心时
{{RAG对话|伤心的对话}}
这个时候我们支持使用""{{RAG对话|<不包含花括号的一个字符串>}}"" 来进行RAG

get_message

get_message会返回一个类似openai message形式的message

[{"role":"system","content":整个system prompt},
 {"role":"user","content":用户的输入},
 {"role":"assistant","content":模型的输出},
 ...]

原则上来说,如果使用openai,可以直接使用

def get_response( messages ):
    completion = client.chat.completions.create(
        model="gpt-3.5-turbo-1106",
        messages=messages,
        temperature=0.3
    )

    return completion.choices[0].message.content

对于异步的实现

async def async_get_response( messages ):
    resp = await aclient.chat.completions.create(
            model=model,
            messages=messages,
            temperature=0.3,
    )
    return result

async_chat的调用

设计上也会去支持

async def get_response( message ):
    return "语言模型输出了角色扮演的结果"

from ChatHaruhi import ChatHaruhi

chatbot = ChatHaruhi( role_name = 'haruhi', llm_async = get_response )

response = await chatbot.async_chat(user='阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?' )

这样异步的调用

角色载入

如果这样看来,新的ChatHaruhi3.0需要以下信息

  • persona 这个是必须的
  • role_name, 在后处理的时候,把 {{role}} 和 {{角色}} 替换为这个字段, 这个字段不能为空,因为system prompt使用了这个字段,如果要支持这个字段为空,我们要额外设计一个备用prompt
  • user_name, 在后处理的时候,把 {{用户}} 和 {{user}} 替换为这个字段,如果不设置也可以不替换
  • RAG库, 当RAG库为空的时候,所有{{RAG*}}就直接删除了

role_name载入

语法糖载入,不支持用户自己搞新角色,这个时候我们可以完全使用原来的数据

额外需要设置一个role_name

role_from_jsonl载入

这个时候我们需要设置role_name

如果不设置我们会抛出一个error

role_from_hf

本质上就是role_from_jsonl

分别设置persona和role_name

这个时候作为新人物考虑,默认没有RAG库,即Zero模式

分别设置persona, role_name, texts

这个时候会为texts再次抽取vectors

分别设置persona, role_name, texts, vecs

额外变量

max_input_token

默认为1600,会根据这个来限制history的长度

user_name_in_message

(这个功能在现在的预期核心代码中还没实现)

默认为'default', 当用户始终用同一个user_name和角色对话的时候,并不添加

如果用户使用不同的role和chatbot聊天 user_name_in_message 会改为 'add' 并在每个message标记是谁说的

(bot的也会添加)

并且user_name替换为最后一个调用的user_name

如果'not_add' 则永远不添加

S MSG_U1 MSG_A MSG_U1 MSG_A

当出现U2后

S, U1:MSG_U1, A:MSG_A, U1:MSG_U1, A:MSG_A, U2:MSG_U2

token_counter

tokenizer默认为gpt3.5的tiktoken,设置为None的时候,不进行任何的token长度限制

transfer_haruhi_2_zero

(这个功能在现在的预期核心代码中还没实现)

默认为true

把原本ChatHaruhi的 角色: 「对话」的格式,去掉「」

Embedding

中文考虑用bge_small

Cross language考虑使用bce,相对还比较小, bge-m3太大了

也就是ChatHaruhi类会有默认的embedding

self.embedding = ChatHaruhi.bge_small

对于输入的文本,我们会使用这个embedding来进行encode然后进行检索替换掉RAG的内容

辅助接口

save_to_jsonl

把一个角色保存成jsonl格式,方便上传hf

预计的伪代码

这里的核心就是去考虑ChatHaruhi下get_message函数的伪代码

class ChatHaruhi:

    def __init__( self ):
        pass

    def rag_retrieve( self, query_rags, rest_limit ):
        # 返回一个rag_ids的列表
        retrieved_ids = []
        rag_ids = []

        for query_rag in query_rags:
            query = query_rag['query']
            n = query_rag['n']
            max_token = rest_limit
            if rest_limit > query_rag['max_token'] and query_rag['max_token'] > 0:
                max_token = query_rag['max_token']

            rag_id = self.rag_retrieve( query, n, max_token, avoid_ids = retrieved_ids )
            rag_ids.append( rag_id )
            retrieved_ids += rag_id

    def get_message(self, user, text):

        query_token = self.token_counter( text )

        # 首先获取需要多少个rag story
        query_rags, persona_token = self.parse_persona( self.persona, text )
        #每个query_rag需要饱含
        # "n" 需要几个story
        # "max_token" 最多允许多少个token,如果-1则不限制
        # "query" 需要查询的内容
        # "lid" 需要替换的行,这里直接进行行替换,忽视行的其他内容
        
        rest_limit = self.max_input_token - persona_token - query_token

        rag_ids = self.rag_retrieve( query_rags, rest_limit )
        
        # 将rag_ids对应的故事 替换到persona中
        augmented_persona = self.augment_persona( self.persona, rag_ids )

        system_prompt = self.package_system_prompt( self.role_name, augmented_persona )

        token_for_system = self.token_counter( system_prompt )

        rest_limit = self.max_input_token - token_for_system - query_token

        messages = [{"role":"system","content":system_prompt}]

        messages = self.append_history_under_limit( messages, rest_limit )

        messages.append({"role":"user",query})

        return messages