jonathanjordan21 commited on
Commit
ee89657
·
verified ·
1 Parent(s): f6d2306

Update custom_llm.py

Browse files
Files changed (1) hide show
  1. custom_llm.py +2 -2
custom_llm.py CHANGED
@@ -95,7 +95,7 @@ def custom_chain_with_history(llm, memory):
95
 
96
  prompt = PromptTemplate.from_template("""<s><INST><|system|>
97
  Anda adalah asisten AI Chatbot customer service.
98
- Anda memiliki akses konteks dibawah ini untuk menemukan informasi yang paling relevan dengan kebutuhan user:
99
  {context}
100
 
101
  Berikan respon kepada user berdasarkan riwayat chat berikut dengan bahasa yang digunakan terakhir kali oleh user, jika tidak ada informasi yang relevan maka itu adalah informasi yang rahasia dan Anda tidak diizinkan untuk menyebarkan informasi tersebut kepada user:
@@ -124,7 +124,7 @@ def custom_chain_with_history(llm, memory):
124
  # )
125
 
126
  # return {"chat_history":prompt_memory, "context":asyncio.run(create_vectorstore()).as_retriever(search_type="similarity", search_kwargs={"k": 12}) | format_docs, "question": RunnablePassthrough()} | prompt | llm
127
- return {"chat_history":lambda x:prompt_memory(x['memory']), "context":itemgetter("question") | asyncio.run(create_vectorstore()).as_retriever(search_type="similarity", search_kwargs={"k": 12}) | format_docs, "question": lambda x:x['question']} | prompt | llm
128
 
129
  class CustomLLM(LLM):
130
  repo_id : str
 
95
 
96
  prompt = PromptTemplate.from_template("""<s><INST><|system|>
97
  Anda adalah asisten AI Chatbot customer service.
98
+ Anda memiliki akses table dibawah ini untuk menemukan informasi yang paling relevan dengan kebutuhan user:
99
  {context}
100
 
101
  Berikan respon kepada user berdasarkan riwayat chat berikut dengan bahasa yang digunakan terakhir kali oleh user, jika tidak ada informasi yang relevan maka itu adalah informasi yang rahasia dan Anda tidak diizinkan untuk menyebarkan informasi tersebut kepada user:
 
124
  # )
125
 
126
  # return {"chat_history":prompt_memory, "context":asyncio.run(create_vectorstore()).as_retriever(search_type="similarity", search_kwargs={"k": 12}) | format_docs, "question": RunnablePassthrough()} | prompt | llm
127
+ return {"chat_history":lambda x:prompt_memory(x['memory']), "context":itemgetter("question") | asyncio.run(create_vectorstore()).as_retriever(search_type="similarity", search_kwargs={"k": 100000}) | format_docs, "question": lambda x:x['question']} | prompt | llm
128
 
129
  class CustomLLM(LLM):
130
  repo_id : str