Update custom_llm.py
Browse files- custom_llm.py +2 -2
custom_llm.py
CHANGED
|
@@ -95,7 +95,7 @@ def custom_chain_with_history(llm, memory):
|
|
| 95 |
|
| 96 |
prompt = PromptTemplate.from_template("""<s><INST><|system|>
|
| 97 |
Anda adalah asisten AI Chatbot customer service.
|
| 98 |
-
Anda memiliki akses
|
| 99 |
{context}
|
| 100 |
|
| 101 |
Berikan respon kepada user berdasarkan riwayat chat berikut dengan bahasa yang digunakan terakhir kali oleh user, jika tidak ada informasi yang relevan maka itu adalah informasi yang rahasia dan Anda tidak diizinkan untuk menyebarkan informasi tersebut kepada user:
|
|
@@ -124,7 +124,7 @@ def custom_chain_with_history(llm, memory):
|
|
| 124 |
# )
|
| 125 |
|
| 126 |
# return {"chat_history":prompt_memory, "context":asyncio.run(create_vectorstore()).as_retriever(search_type="similarity", search_kwargs={"k": 12}) | format_docs, "question": RunnablePassthrough()} | prompt | llm
|
| 127 |
-
return {"chat_history":lambda x:prompt_memory(x['memory']), "context":itemgetter("question") | asyncio.run(create_vectorstore()).as_retriever(search_type="similarity", search_kwargs={"k":
|
| 128 |
|
| 129 |
class CustomLLM(LLM):
|
| 130 |
repo_id : str
|
|
|
|
| 95 |
|
| 96 |
prompt = PromptTemplate.from_template("""<s><INST><|system|>
|
| 97 |
Anda adalah asisten AI Chatbot customer service.
|
| 98 |
+
Anda memiliki akses table dibawah ini untuk menemukan informasi yang paling relevan dengan kebutuhan user:
|
| 99 |
{context}
|
| 100 |
|
| 101 |
Berikan respon kepada user berdasarkan riwayat chat berikut dengan bahasa yang digunakan terakhir kali oleh user, jika tidak ada informasi yang relevan maka itu adalah informasi yang rahasia dan Anda tidak diizinkan untuk menyebarkan informasi tersebut kepada user:
|
|
|
|
| 124 |
# )
|
| 125 |
|
| 126 |
# return {"chat_history":prompt_memory, "context":asyncio.run(create_vectorstore()).as_retriever(search_type="similarity", search_kwargs={"k": 12}) | format_docs, "question": RunnablePassthrough()} | prompt | llm
|
| 127 |
+
return {"chat_history":lambda x:prompt_memory(x['memory']), "context":itemgetter("question") | asyncio.run(create_vectorstore()).as_retriever(search_type="similarity", search_kwargs={"k": 100000}) | format_docs, "question": lambda x:x['question']} | prompt | llm
|
| 128 |
|
| 129 |
class CustomLLM(LLM):
|
| 130 |
repo_id : str
|