Spaces:
Sleeping
Sleeping
Commit
·
602e9df
1
Parent(s):
cb3dc75
initialize project
Browse files- .env +3 -0
- Dockerfile +0 -0
- app.py +46 -0
- chatbot/.DS_Store +0 -0
- chatbot/__pycache__/core.cpython-310.pyc +0 -0
- chatbot/__pycache__/core.cpython-312.pyc +0 -0
- chatbot/__pycache__/core.cpython-313.pyc +0 -0
- chatbot/__pycache__/llm.cpython-310.pyc +0 -0
- chatbot/__pycache__/llm.cpython-312.pyc +0 -0
- chatbot/__pycache__/llm.cpython-313.pyc +0 -0
- chatbot/__pycache__/memory.cpython-310.pyc +0 -0
- chatbot/__pycache__/memory.cpython-312.pyc +0 -0
- chatbot/__pycache__/memory.cpython-313.pyc +0 -0
- chatbot/__pycache__/metadata_selfquery.cpython-310.pyc +0 -0
- chatbot/__pycache__/metadata_selfquery.cpython-312.pyc +0 -0
- chatbot/__pycache__/metadata_selfquery.cpython-313.pyc +0 -0
- chatbot/__pycache__/prompts.cpython-310.pyc +0 -0
- chatbot/__pycache__/prompts.cpython-312.pyc +0 -0
- chatbot/__pycache__/prompts.cpython-313.pyc +0 -0
- chatbot/__pycache__/retrieval.cpython-310.pyc +0 -0
- chatbot/__pycache__/retrieval.cpython-312.pyc +0 -0
- chatbot/__pycache__/retrieval.cpython-313.pyc +0 -0
- chatbot/core.py +42 -0
- chatbot/init.py +0 -0
- chatbot/llm.py +28 -0
- chatbot/memory.py +3 -0
- chatbot/metadata_selfquery.py +8 -0
- chatbot/prompts.py +233 -0
- chatbot/retrieval.py +81 -0
- config.py +17 -0
- data/rangdong.json +0 -0
- requirements.txt +15 -0
.env
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
GEMINI_API_KEY = "AIzaSyDRgb6N56-HBjPZCMmnXAOqvYta3Nj8uDE"
|
| 2 |
+
QDRANT_HOST = "https://033ce04b-e260-4fe0-bbc2-18a7da667877.us-east-1-0.aws.cloud.qdrant.io:6333"
|
| 3 |
+
QDRANT_API_KEY = "eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJhY2Nlc3MiOiJtIiwiZXhwIjoxNzUxMzg3ODc2fQ.EaPH-fBeSqVYldZvK6ncaX9s0rmEwrEDao3lRW8f6BI"
|
Dockerfile
ADDED
|
File without changes
|
app.py
ADDED
|
@@ -0,0 +1,46 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
import streamlit as st
|
| 2 |
+
from chatbot.core import get_chat_response
|
| 3 |
+
|
| 4 |
+
# Cấu hình giao diện Streamlit
|
| 5 |
+
st.set_page_config(page_title="RangDong Chatbot", layout="wide")
|
| 6 |
+
|
| 7 |
+
# Tiêu đề ứng dụng
|
| 8 |
+
st.markdown(
|
| 9 |
+
"""
|
| 10 |
+
<style>
|
| 11 |
+
.title {
|
| 12 |
+
text-align: center;
|
| 13 |
+
font-size: 2em;
|
| 14 |
+
font-weight: bold;
|
| 15 |
+
}
|
| 16 |
+
</style>
|
| 17 |
+
<h1 class="title">RangDong Sale Assistant</h1>
|
| 18 |
+
""",
|
| 19 |
+
unsafe_allow_html=True
|
| 20 |
+
)
|
| 21 |
+
|
| 22 |
+
# Khởi tạo session state để lưu lịch sử chat
|
| 23 |
+
if "messages" not in st.session_state:
|
| 24 |
+
st.session_state.messages = []
|
| 25 |
+
|
| 26 |
+
# Hiển thị lịch sử chat
|
| 27 |
+
for message in st.session_state.messages:
|
| 28 |
+
with st.chat_message(message["role"]):
|
| 29 |
+
st.markdown(message["content"])
|
| 30 |
+
|
| 31 |
+
# Ô nhập liệu chat
|
| 32 |
+
user_input = st.chat_input("Nhập tin nhắn của bạn...")
|
| 33 |
+
|
| 34 |
+
if user_input:
|
| 35 |
+
# Hiển thị tin nhắn của user
|
| 36 |
+
st.session_state.messages.append({"role": "user", "content": user_input})
|
| 37 |
+
with st.chat_message("user"):
|
| 38 |
+
st.markdown(user_input)
|
| 39 |
+
|
| 40 |
+
# Gọi chatbot để lấy phản hồi
|
| 41 |
+
response = get_chat_response(user_input)
|
| 42 |
+
|
| 43 |
+
# Hiển thị phản hồi của chatbot
|
| 44 |
+
st.session_state.messages.append({"role": "assistant", "content": response})
|
| 45 |
+
with st.chat_message("assistant"):
|
| 46 |
+
st.markdown(response)
|
chatbot/.DS_Store
ADDED
|
Binary file (6.15 kB). View file
|
|
|
chatbot/__pycache__/core.cpython-310.pyc
ADDED
|
Binary file (1.68 kB). View file
|
|
|
chatbot/__pycache__/core.cpython-312.pyc
ADDED
|
Binary file (2.11 kB). View file
|
|
|
chatbot/__pycache__/core.cpython-313.pyc
ADDED
|
Binary file (2.09 kB). View file
|
|
|
chatbot/__pycache__/llm.cpython-310.pyc
ADDED
|
Binary file (1.5 kB). View file
|
|
|
chatbot/__pycache__/llm.cpython-312.pyc
ADDED
|
Binary file (1.89 kB). View file
|
|
|
chatbot/__pycache__/llm.cpython-313.pyc
ADDED
|
Binary file (1.97 kB). View file
|
|
|
chatbot/__pycache__/memory.cpython-310.pyc
ADDED
|
Binary file (279 Bytes). View file
|
|
|
chatbot/__pycache__/memory.cpython-312.pyc
ADDED
|
Binary file (304 Bytes). View file
|
|
|
chatbot/__pycache__/memory.cpython-313.pyc
ADDED
|
Binary file (298 Bytes). View file
|
|
|
chatbot/__pycache__/metadata_selfquery.cpython-310.pyc
ADDED
|
Binary file (670 Bytes). View file
|
|
|
chatbot/__pycache__/metadata_selfquery.cpython-312.pyc
ADDED
|
Binary file (792 Bytes). View file
|
|
|
chatbot/__pycache__/metadata_selfquery.cpython-313.pyc
ADDED
|
Binary file (768 Bytes). View file
|
|
|
chatbot/__pycache__/prompts.cpython-310.pyc
ADDED
|
Binary file (6.83 kB). View file
|
|
|
chatbot/__pycache__/prompts.cpython-312.pyc
ADDED
|
Binary file (7.26 kB). View file
|
|
|
chatbot/__pycache__/prompts.cpython-313.pyc
ADDED
|
Binary file (7.24 kB). View file
|
|
|
chatbot/__pycache__/retrieval.cpython-310.pyc
ADDED
|
Binary file (2.88 kB). View file
|
|
|
chatbot/__pycache__/retrieval.cpython-312.pyc
ADDED
|
Binary file (4.6 kB). View file
|
|
|
chatbot/__pycache__/retrieval.cpython-313.pyc
ADDED
|
Binary file (4.58 kB). View file
|
|
|
chatbot/core.py
ADDED
|
@@ -0,0 +1,42 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
from .llm import gemini_llm
|
| 2 |
+
from .retrieval import load_vectordb
|
| 3 |
+
from .memory import memory
|
| 4 |
+
from .prompts import chat_prompt, classification_prompt, category_tree_json
|
| 5 |
+
from langchain.chains import ConversationalRetrievalChain
|
| 6 |
+
from .metadata_selfquery import metadata_field_info
|
| 7 |
+
from langchain.retrievers.self_query.base import SelfQueryRetriever
|
| 8 |
+
from langchain.retrievers.self_query.qdrant import QdrantTranslator
|
| 9 |
+
|
| 10 |
+
|
| 11 |
+
vector_store = load_vectordb()
|
| 12 |
+
|
| 13 |
+
def classify_query(query):
|
| 14 |
+
response = gemini_llm.invoke(classification_prompt.format(query=query, category_tree=category_tree_json))
|
| 15 |
+
return response
|
| 16 |
+
|
| 17 |
+
retriever = SelfQueryRetriever.from_llm(
|
| 18 |
+
llm=gemini_llm,
|
| 19 |
+
vectorstore=vector_store,
|
| 20 |
+
document_contents="Thông tin sản phẩm gồm mô tả ngắn và danh mục phân cấp, giá mà khách hàng tìm kiếm",
|
| 21 |
+
metadata_field_info=metadata_field_info,
|
| 22 |
+
structured_query_translator= QdrantTranslator(metadata_key="metadata"),
|
| 23 |
+
search_type="similarity",
|
| 24 |
+
search_kwargs={"k": 10, "score_threshold": 0.3}
|
| 25 |
+
)
|
| 26 |
+
|
| 27 |
+
qa_chain = ConversationalRetrievalChain.from_llm(
|
| 28 |
+
llm=gemini_llm,
|
| 29 |
+
retriever=retriever,
|
| 30 |
+
memory=memory,
|
| 31 |
+
return_source_documents= False,
|
| 32 |
+
combine_docs_chain_kwargs={"prompt": chat_prompt},
|
| 33 |
+
output_key="result"
|
| 34 |
+
)
|
| 35 |
+
|
| 36 |
+
def get_chat_response(user_input: str) -> str:
|
| 37 |
+
classified_query = classify_query(user_input)
|
| 38 |
+
response = qa_chain({"question": classified_query})
|
| 39 |
+
|
| 40 |
+
memory.save_context({"input": classified_query}, {"output": response["result"]})
|
| 41 |
+
print(classified_query)
|
| 42 |
+
return response["result"]
|
chatbot/init.py
ADDED
|
File without changes
|
chatbot/llm.py
ADDED
|
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
import google.generativeai as genai
|
| 2 |
+
from langchain.llms.base import LLM
|
| 3 |
+
from typing import Optional, List
|
| 4 |
+
from config import GEMINI_API_KEY, MODEL_NAME
|
| 5 |
+
|
| 6 |
+
genai.configure(api_key=GEMINI_API_KEY)
|
| 7 |
+
|
| 8 |
+
class GeminiWrapper(LLM):
|
| 9 |
+
"""Wrapper để sử dụng Gemini với LangChain."""
|
| 10 |
+
|
| 11 |
+
model: str = MODEL_NAME
|
| 12 |
+
|
| 13 |
+
def _call(self, prompt: str, stop: Optional[List[str]] = None) -> str:
|
| 14 |
+
"""Gửi prompt đến Gemini và trả về kết quả."""
|
| 15 |
+
model = genai.GenerativeModel(self.model)
|
| 16 |
+
response = model.generate_content(prompt)
|
| 17 |
+
return response.text if response and hasattr(response, 'text') else "Không có phản hồi từ Gemini."
|
| 18 |
+
|
| 19 |
+
@property
|
| 20 |
+
def _identifying_params(self) -> dict:
|
| 21 |
+
"""Trả về tham số nhận diện của mô hình."""
|
| 22 |
+
return {"model": self.model}
|
| 23 |
+
|
| 24 |
+
@property
|
| 25 |
+
def _llm_type(self) -> str:
|
| 26 |
+
return "gemini"
|
| 27 |
+
|
| 28 |
+
gemini_llm = GeminiWrapper()
|
chatbot/memory.py
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
from langchain.memory import ConversationBufferMemory
|
| 2 |
+
|
| 3 |
+
memory = ConversationBufferMemory(memory_key="chat_history", return_messages=True)
|
chatbot/metadata_selfquery.py
ADDED
|
@@ -0,0 +1,8 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
from langchain.chains.query_constructor.base import AttributeInfo
|
| 2 |
+
|
| 3 |
+
metadata_field_info = [
|
| 4 |
+
AttributeInfo(name="L1", description="Danh mục cấp 1", type="string", example="Chuyên dụng, Dân dụng"),
|
| 5 |
+
AttributeInfo(name="L2", description="Danh mục cấp 2", type="string", example="Đèn LED, Đèn bàn, Bình - Phích nước"),
|
| 6 |
+
AttributeInfo(name="L3", description="Danh mục cấp 3", type="string"),
|
| 7 |
+
AttributeInfo(name="Price", description="Khoảng giá của sản phẩm người dùng muốn", type="float", is_filterable=True, is_numerical=True),
|
| 8 |
+
]
|
chatbot/prompts.py
ADDED
|
@@ -0,0 +1,233 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
from langchain.prompts import PromptTemplate
|
| 2 |
+
from .llm import gemini_llm
|
| 3 |
+
from langchain_core.prompts import ChatPromptTemplate
|
| 4 |
+
import json
|
| 5 |
+
|
| 6 |
+
chat_prompt = PromptTemplate(
|
| 7 |
+
input_variables=["context", "question"],
|
| 8 |
+
template="""
|
| 9 |
+
Bạn là trợ lý AI bán hàng của **Rạng Đông Store**, chuyên hỗ trợ khách hàng tìm kiếm và lựa chọn các sản phẩm chiếu sáng và gia dụng chất lượng cao.
|
| 10 |
+
|
| 11 |
+
### Danh mục sản phẩm chính:
|
| 12 |
+
1. **Đèn LED**
|
| 13 |
+
- Đèn LED chiếu sáng dân dụng
|
| 14 |
+
- Đèn LED chiếu sáng chuyên dụng
|
| 15 |
+
- Đèn LED nông nghiệp
|
| 16 |
+
- Đèn LED ngư nghiệp
|
| 17 |
+
- Đèn bàn học, đèn chống cận
|
| 18 |
+
|
| 19 |
+
2. **Bình và Phích nước**
|
| 20 |
+
- Bình giữ nhiệt
|
| 21 |
+
- Phích nước
|
| 22 |
+
|
| 23 |
+
3. **Thiết bị chiếu sáng**
|
| 24 |
+
- Đèn LED Downlight
|
| 25 |
+
- Đèn LED âm trần
|
| 26 |
+
- Đèn LED năng lượng mặt trời
|
| 27 |
+
- Hệ thống điện năng lượng mặt trời
|
| 28 |
+
|
| 29 |
+
---
|
| 30 |
+
|
| 31 |
+
### Nhiệm vụ của bạn:
|
| 32 |
+
- Cố gắng cung cấp nhiều sản phẩm nhất từ danh sách đưa ra.
|
| 33 |
+
- Nếu không có dữ liệu về L3, hãy hỏi rõ nhu cầu của khách hàng.
|
| 34 |
+
- Cung cấp cho khách hàng thông tin về các sản phẩm liên quan sau. (`{context}`).
|
| 35 |
+
- Tư vấn nhiều lựa chọn phù hợp nếu có thể.
|
| 36 |
+
- Không bịa đặt hoặc suy diễn nếu không tìm thấy sản phẩm phù hợp – hãy xin lỗi khách hàng một cách chuyên nghiệp.
|
| 37 |
+
|
| 38 |
+
---
|
| 39 |
+
|
| 40 |
+
### Yêu cầu khi phản hồi:
|
| 41 |
+
- Mỗi sản phẩm gợi ý cần **đính kèm URL** (rất quan trọng).
|
| 42 |
+
- Nếu là **đèn chiếu sáng**, hãy nêu rõ:
|
| 43 |
+
`Giá`, `Công suất`, `Góc chiếu`, `Độ rọi`.
|
| 44 |
+
- Nếu là **bình giữ nhiệt hoặc phích nước**, hãy nêu rõ:
|
| 45 |
+
`Giá`, `Dung tích`, `Thời gian giữ nhiệt`.
|
| 46 |
+
|
| 47 |
+
---
|
| 48 |
+
|
| 49 |
+
### Câu hỏi từ khách hàng:
|
| 50 |
+
{question}
|
| 51 |
+
|
| 52 |
+
---
|
| 53 |
+
|
| 54 |
+
### Thông tin sản phẩm có sẵn:
|
| 55 |
+
{context}
|
| 56 |
+
|
| 57 |
+
---
|
| 58 |
+
|
| 59 |
+
### Phản hồi:
|
| 60 |
+
"""
|
| 61 |
+
)
|
| 62 |
+
|
| 63 |
+
|
| 64 |
+
|
| 65 |
+
category_tree = {
|
| 66 |
+
"Chuyên dụng": {
|
| 67 |
+
"Chiếu sáng chuyên dụng": {
|
| 68 |
+
"Hệ thống điện năng lượng mặt trời": [
|
| 69 |
+
"Hệ thống hòa lưới",
|
| 70 |
+
"Hệ thống hòa lưới có lưu trữ"
|
| 71 |
+
],
|
| 72 |
+
"Đèn LED chiếu sáng Đường phố": [],
|
| 73 |
+
"Đèn LED ngư nghiệp": [
|
| 74 |
+
"Đèn Led chiếu boong",
|
| 75 |
+
"Đèn Led chiếu mạn",
|
| 76 |
+
"Đèn Led chế biến thủy sản",
|
| 77 |
+
"Đèn Led câu mực",
|
| 78 |
+
"Đèn Led sinh hoạt",
|
| 79 |
+
"Đèn thả chìm",
|
| 80 |
+
"Đèn tàu cá"
|
| 81 |
+
],
|
| 82 |
+
"Đèn LED nông nghiệp": [
|
| 83 |
+
"Smart Farm",
|
| 84 |
+
"Đèn Led chuyên dụng cho Hoa Cúc",
|
| 85 |
+
"Đèn Led chuyên dụng cho Thanh Long",
|
| 86 |
+
"Đèn Led chuyên dụng cho Tảo",
|
| 87 |
+
"Đèn Led chuyên dụng cho chăn nuôi gia cầm",
|
| 88 |
+
"Đèn Led chuyên dụng cho cây xanh trong nhà",
|
| 89 |
+
"Đèn Led chuyên dụng cho nhà kính, nhà màng",
|
| 90 |
+
"Đèn Led chuyên dụng cho nuôi cấy mô",
|
| 91 |
+
"Đèn Led chuyên dụng trồng rau",
|
| 92 |
+
"Đèn Led chuyên dụng đông trùng hạ thảo",
|
| 93 |
+
"Đèn Led thông minh đa năng"
|
| 94 |
+
],
|
| 95 |
+
"Đèn chiếu sáng lớp học": [],
|
| 96 |
+
"Đèn năng lượng mặt trời": [
|
| 97 |
+
"Bộ lưu điện năng lượng mặt trời",
|
| 98 |
+
"Bộ sạc điện cho acquy",
|
| 99 |
+
"Đèn pha năng lượng mặt trời"
|
| 100 |
+
]
|
| 101 |
+
},
|
| 102 |
+
"Chiếu sáng ứng dụng": {
|
| 103 |
+
"Giải Pháp Chiếu Sáng Nông Nghiệp": [],
|
| 104 |
+
"Giải Pháp Chiếu Sáng Trung Tâm Thương Mại": []
|
| 105 |
+
},
|
| 106 |
+
"Thiết Bị Điện": {
|
| 107 |
+
"Đèn Bắt Muỗi": []
|
| 108 |
+
}
|
| 109 |
+
},
|
| 110 |
+
"Dân dụng": {
|
| 111 |
+
"Bình - Phích nước": {
|
| 112 |
+
"Bình Nước": [
|
| 113 |
+
"Bình Nước Cầm Tay",
|
| 114 |
+
"Bình Nước Giữ Nhiệt"
|
| 115 |
+
],
|
| 116 |
+
"Bộ Sưu Tập Giới Hạn": [],
|
| 117 |
+
"Phích Nước": [
|
| 118 |
+
"Phích Cao Cấp",
|
| 119 |
+
"Phích Cầm Tay",
|
| 120 |
+
"Phích Nước Truyền Thống",
|
| 121 |
+
"Phích Ủ",
|
| 122 |
+
"Ruột Phích"
|
| 123 |
+
]
|
| 124 |
+
},
|
| 125 |
+
"Siêu Khuyến Mãi": {
|
| 126 |
+
"Hot Combo 🔥": [],
|
| 127 |
+
"Siêu Sale": []
|
| 128 |
+
},
|
| 129 |
+
"Thiết Bị Điện": {
|
| 130 |
+
"Thiết Bị Khác": [],
|
| 131 |
+
"Đèn Bắt Muỗi": [],
|
| 132 |
+
"Ấm Siêu Tốc": [],
|
| 133 |
+
"Ổ Cắm": [
|
| 134 |
+
"Ổ Cắm Kéo Dài",
|
| 135 |
+
"Ổ Cắm Âm Tường"
|
| 136 |
+
]
|
| 137 |
+
},
|
| 138 |
+
"Đèn LED THÔNG MINH": {
|
| 139 |
+
"Smart BLE": [
|
| 140 |
+
"Bảng Điều Khiển",
|
| 141 |
+
"Bộ Điều Khiển Trung Tâm",
|
| 142 |
+
"Công Tắc Thông Minh",
|
| 143 |
+
"Cảm Biến Thông Minh",
|
| 144 |
+
"Thiết Bị Thông Minh",
|
| 145 |
+
"Đèn LED Dây Thông Minh",
|
| 146 |
+
"Đèn LED Panel Khổ Lớn Thông Minh",
|
| 147 |
+
"Đèn LED Tracklight Thông Minh",
|
| 148 |
+
"Đèn LED Âm Trần Thông Minh",
|
| 149 |
+
"Đèn LED Ốp Trần Thông Minh"
|
| 150 |
+
],
|
| 151 |
+
"Smart Local": [],
|
| 152 |
+
"Smart RF": [],
|
| 153 |
+
"Smart WF": [
|
| 154 |
+
"Công tắc thông minh",
|
| 155 |
+
"Cảm biến thông minh",
|
| 156 |
+
"Đèn LED panel khổ lớn thông minh",
|
| 157 |
+
"Đèn LED âm trần thông minh",
|
| 158 |
+
"Đèn LED ốp trần thông minh",
|
| 159 |
+
"Ổ cắm thông minh"
|
| 160 |
+
]
|
| 161 |
+
},
|
| 162 |
+
"Đèn LED": {
|
| 163 |
+
"Bộ đèn LED": [
|
| 164 |
+
"Bộ Đèn LED",
|
| 165 |
+
"Bộ Đèn LED T5",
|
| 166 |
+
"Bộ Đèn LED Tube T8"
|
| 167 |
+
],
|
| 168 |
+
"Máng Đèn": [],
|
| 169 |
+
"Phụ kiện đèn": [],
|
| 170 |
+
"Đèn LED Bulb": [
|
| 171 |
+
"LED Bulb lưu điện",
|
| 172 |
+
"Đèn LED Bulb Tròn",
|
| 173 |
+
"Đèn LED Bulb Trụ"
|
| 174 |
+
],
|
| 175 |
+
"Đèn LED Chiếu pha": [],
|
| 176 |
+
"Đèn LED Chỉ dẫn - Khẩn cấp": [],
|
| 177 |
+
"Đèn LED Dây": [],
|
| 178 |
+
"Đèn LED Gắn Tường": [],
|
| 179 |
+
"Đèn LED Khác": [],
|
| 180 |
+
"Đèn LED Linear": [],
|
| 181 |
+
"Đèn LED NLMT": [
|
| 182 |
+
"Đèn Chiếu Sáng Trong Nhà NLMT",
|
| 183 |
+
"Đèn Pha Năng Lượng Mặt Trời",
|
| 184 |
+
"Đèn Sân Vườn NLMT",
|
| 185 |
+
"Đèn Đường Năng Lượng Mặt Trời"
|
| 186 |
+
],
|
| 187 |
+
"Đèn LED Nhà Xưởng": [
|
| 188 |
+
"Bộ Đèn Chống Nổ",
|
| 189 |
+
"Bộ Đèn Chống Ẩm",
|
| 190 |
+
"Đèn LED Chỉ Dẫn",
|
| 191 |
+
"Đèn LED Highbay",
|
| 192 |
+
"Đèn LED Khẩn Cấp"
|
| 193 |
+
],
|
| 194 |
+
"Đèn LED Panel Khổ Lớn": [],
|
| 195 |
+
"Đèn LED Tracklight": [
|
| 196 |
+
"Đèn LED Ray",
|
| 197 |
+
"Đèn LED Tracklight"
|
| 198 |
+
],
|
| 199 |
+
"Đèn LED Tube": [
|
| 200 |
+
"Bóng LED Tube Nhôm Nhựa",
|
| 201 |
+
"Bóng LED Tube Thủy Tinh Bọc Nhựa"
|
| 202 |
+
],
|
| 203 |
+
"Đèn LED Âm Trần": [
|
| 204 |
+
"Đèn LED Panel",
|
| 205 |
+
"Đèn LED Âm Trần Downlight"
|
| 206 |
+
],
|
| 207 |
+
"Đèn LED Ốp trần": [
|
| 208 |
+
"Đèn LED Nổi Trần",
|
| 209 |
+
"Đèn LED Ốp Trần Tròn",
|
| 210 |
+
"Đèn LED Ốp Trần Vuông"
|
| 211 |
+
],
|
| 212 |
+
"Đèn LED Ốp tường": []
|
| 213 |
+
},
|
| 214 |
+
"Đèn bàn": {
|
| 215 |
+
"Đèn bàn học": [],
|
| 216 |
+
"Đèn bàn văn phòng - làm việc": []
|
| 217 |
+
}
|
| 218 |
+
}
|
| 219 |
+
}
|
| 220 |
+
|
| 221 |
+
|
| 222 |
+
category_tree_json = json.dumps(category_tree, ensure_ascii=False, indent=2)
|
| 223 |
+
|
| 224 |
+
|
| 225 |
+
classification_prompt = ChatPromptTemplate.from_messages([
|
| 226 |
+
("system", "Bạn là một trợ lý AI giúp phân loại sản phẩm dựa trên danh mục có sẵn. "
|
| 227 |
+
"Dưới đây là danh mục sản phẩm:\n\n"
|
| 228 |
+
"{category_tree}\n\n"
|
| 229 |
+
"Hãy đọc câu hỏi của khách hàng và xác định danh mục thích hợp L1, L2, L3"
|
| 230 |
+
"Và giá thấp nhất khách hàng mua, giá cao nhất khách hàng mua"),
|
| 231 |
+
("human", "Câu hỏi: {query}. Hãy trả về danh mục thích hợp."
|
| 232 |
+
"Trả lời theo định dạng sau: {query}, L1:... - L2:....")
|
| 233 |
+
])
|
chatbot/retrieval.py
ADDED
|
@@ -0,0 +1,81 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
import qdrant_client
|
| 2 |
+
from langchain.vectorstores import Qdrant
|
| 3 |
+
from langchain_huggingface import HuggingFaceEmbeddings
|
| 4 |
+
from langchain.text_splitter import RecursiveCharacterTextSplitter
|
| 5 |
+
from langchain.schema import Document
|
| 6 |
+
import os
|
| 7 |
+
import json
|
| 8 |
+
import re
|
| 9 |
+
from config import EMBEDDING_MODEL, QDRANT_HOST, QDRANT_API_KEY, QDRANT_COLECTION_NAME, EMBEDDING_SIZE
|
| 10 |
+
|
| 11 |
+
embedding_model = HuggingFaceEmbeddings(model_name=EMBEDDING_MODEL)
|
| 12 |
+
|
| 13 |
+
def load_json(file_path):
|
| 14 |
+
if not os.path.exists(file_path):
|
| 15 |
+
raise FileNotFoundError(f"File not found: {file_path}")
|
| 16 |
+
with open(file_path, "r", encoding="utf-8") as f:
|
| 17 |
+
return json.load(f)
|
| 18 |
+
|
| 19 |
+
|
| 20 |
+
def load_data(filepath):
|
| 21 |
+
products = load_json(filepath)
|
| 22 |
+
|
| 23 |
+
documents = []
|
| 24 |
+
for p in products:
|
| 25 |
+
text = f"""
|
| 26 |
+
URL: {p.get("url", "Không có thông tin")},
|
| 27 |
+
Tên: {p.get("product_name", "Không có tên")},
|
| 28 |
+
Mã sản phẩm: {p.get("product_id", "Không có mã")},
|
| 29 |
+
Model: {p.get("model", "Không có model")},
|
| 30 |
+
Giá gốc: {p.get("old_price", "Không có giá")} VND,
|
| 31 |
+
Giá KM: {p.get("price", "Không có giá")} VND,
|
| 32 |
+
Giảm giá: {p.get("discount_rate", "Không có thông tin")},
|
| 33 |
+
Mô tả: {p.get("description", "Không có mô tả")},
|
| 34 |
+
Thông số kỹ thuật: {json.dumps(p.get("specifications", {}), ensure_ascii=False)}
|
| 35 |
+
"""
|
| 36 |
+
text = re.sub(r'\n\s*', ' ', text)
|
| 37 |
+
documents.append(Document(page_content=text,
|
| 38 |
+
metadata={"L1": p.get("L1", "N/A"),
|
| 39 |
+
"L2": p.get("L2", "N/A"),
|
| 40 |
+
"L3": p.get("L3", "N/A"),
|
| 41 |
+
"L4": p.get("L4", "N/A"),
|
| 42 |
+
"SKU": p.get("SKU", "N/A"),
|
| 43 |
+
"Price": p.get("price", "N/A")}))
|
| 44 |
+
|
| 45 |
+
return documents
|
| 46 |
+
|
| 47 |
+
|
| 48 |
+
client = qdrant_client.QdrantClient(
|
| 49 |
+
QDRANT_HOST,
|
| 50 |
+
api_key = QDRANT_API_KEY,
|
| 51 |
+
)
|
| 52 |
+
|
| 53 |
+
def load_vectordb():
|
| 54 |
+
collections_info = client.get_collections()
|
| 55 |
+
if not any(col.name == QDRANT_COLECTION_NAME for col in collections_info.collections):
|
| 56 |
+
vectors_config = qdrant_client.http.models.VectorParams(
|
| 57 |
+
size=EMBEDDING_SIZE,
|
| 58 |
+
distance=qdrant_client.http.models.Distance.COSINE,
|
| 59 |
+
)
|
| 60 |
+
|
| 61 |
+
client.create_collection(
|
| 62 |
+
collection_name= QDRANT_COLECTION_NAME,
|
| 63 |
+
vectors_config=vectors_config,
|
| 64 |
+
)
|
| 65 |
+
vector_store = Qdrant(
|
| 66 |
+
client=client,
|
| 67 |
+
collection_name=QDRANT_COLECTION_NAME,
|
| 68 |
+
embeddings=embedding_model,
|
| 69 |
+
content_payload_key="page_content",
|
| 70 |
+
metadata_payload_key="metadata",
|
| 71 |
+
)
|
| 72 |
+
vector_store.add_documents(load_data("data/rangdong.json"))
|
| 73 |
+
else:
|
| 74 |
+
vector_store = Qdrant(
|
| 75 |
+
client=client,
|
| 76 |
+
collection_name=QDRANT_COLECTION_NAME,
|
| 77 |
+
embeddings=embedding_model,
|
| 78 |
+
content_payload_key="page_content",
|
| 79 |
+
metadata_payload_key="metadata",
|
| 80 |
+
)
|
| 81 |
+
return vector_store
|
config.py
ADDED
|
@@ -0,0 +1,17 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
import google.generativeai as genai
|
| 2 |
+
from langchain.llms.base import LLM
|
| 3 |
+
from typing import List, Optional
|
| 4 |
+
from dotenv import load_dotenv
|
| 5 |
+
import os
|
| 6 |
+
|
| 7 |
+
load_dotenv()
|
| 8 |
+
|
| 9 |
+
GEMINI_API_KEY = os.getenv("GEMINI_API_KEY")
|
| 10 |
+
QDRANT_HOST = os.getenv("QDRANT_HOST")
|
| 11 |
+
QDRANT_API_KEY = os.getenv("QDRANT_API_KEY")
|
| 12 |
+
|
| 13 |
+
QDRANT_COLECTION_NAME = "my_collection"
|
| 14 |
+
MODEL_NAME = "gemini-2.0-flash"
|
| 15 |
+
|
| 16 |
+
EMBEDDING_MODEL = "sentence-transformers/all-MiniLM-L6-v2"
|
| 17 |
+
EMBEDDING_SIZE = 384
|
data/rangdong.json
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|
requirements.txt
ADDED
|
@@ -0,0 +1,15 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
|
| 2 |
+
numpy
|
| 3 |
+
tqdm
|
| 4 |
+
google-generativeai
|
| 5 |
+
streamlit
|
| 6 |
+
transformers==4.35.2
|
| 7 |
+
sentence-transformers==2.2.2
|
| 8 |
+
langchain>=0.1.7
|
| 9 |
+
langchain-community>=0.0.23
|
| 10 |
+
langsmith>=0.1.0
|
| 11 |
+
tf-keras
|
| 12 |
+
lark-parser
|
| 13 |
+
qdrant_client
|
| 14 |
+
lark
|
| 15 |
+
langchain_huggingface
|