Spaces:
Sleeping
Sleeping
Commit
·
f3be659
1
Parent(s):
952119b
evolução no processamento rag
Browse files- rag_processor.py +32 -43
rag_processor.py
CHANGED
@@ -3,56 +3,45 @@
|
|
3 |
import os
|
4 |
from typing import List
|
5 |
from langchain_community.document_loaders import PyPDFLoader, Docx2txtLoader, TextLoader
|
6 |
-
from langchain.text_splitter import RecursiveCharacterTextSplitter
|
7 |
-
from langchain_community.vectorstores import FAISS
|
8 |
-
from langchain_community.embeddings import HuggingFaceEmbeddings
|
9 |
|
10 |
-
|
11 |
-
|
12 |
-
def get_relevant_context(file_paths: List[str], user_query: str) -> str:
|
13 |
"""
|
14 |
-
|
15 |
-
e retorna os trechos mais relevantes para a consulta do usuário.
|
16 |
"""
|
17 |
-
|
18 |
|
19 |
-
# 1. Carregar e Extrair Texto dos Arquivos a partir dos caminhos
|
20 |
for file_path in file_paths:
|
21 |
filename = os.path.basename(file_path)
|
22 |
-
|
23 |
-
|
24 |
-
|
25 |
-
|
26 |
-
|
27 |
-
|
28 |
-
|
29 |
-
|
30 |
-
|
31 |
-
|
32 |
-
|
33 |
-
|
34 |
-
|
35 |
-
|
36 |
-
|
37 |
-
|
38 |
-
|
39 |
-
|
40 |
-
|
41 |
-
|
42 |
-
|
43 |
-
|
44 |
-
# 4. Buscar os Chunks Mais Relevantes
|
45 |
-
retriever = vector_store.as_retriever(search_kwargs={"k": 4})
|
46 |
-
relevant_docs = retriever.invoke(user_query)
|
47 |
-
|
48 |
-
# 5. Formatar e Retornar o Contexto
|
49 |
-
context = "\n\n".join([doc.page_content for doc in relevant_docs])
|
50 |
-
|
51 |
-
# Limpa os arquivos temporários após o uso
|
52 |
for file_path in file_paths:
|
53 |
try:
|
54 |
os.remove(file_path)
|
55 |
except OSError as e:
|
56 |
-
print(f"Erro ao deletar
|
57 |
-
|
58 |
-
|
|
|
|
|
|
|
|
|
|
3 |
import os
|
4 |
from typing import List
|
5 |
from langchain_community.document_loaders import PyPDFLoader, Docx2txtLoader, TextLoader
|
|
|
|
|
|
|
6 |
|
7 |
+
def get_relevant_context(file_paths: List[str], user_query: str = None) -> str:
|
|
|
|
|
8 |
"""
|
9 |
+
Extrai o texto completo de todos os arquivos anexados e retorna como uma única string.
|
|
|
10 |
"""
|
11 |
+
all_contents: List[str] = []
|
12 |
|
|
|
13 |
for file_path in file_paths:
|
14 |
filename = os.path.basename(file_path)
|
15 |
+
try:
|
16 |
+
# Escolhe o loader adequado
|
17 |
+
if filename.lower().endswith(".pdf"):
|
18 |
+
loader = PyPDFLoader(file_path)
|
19 |
+
elif filename.lower().endswith(".docx"):
|
20 |
+
loader = Docx2txtLoader(file_path)
|
21 |
+
elif filename.lower().endswith(".txt"):
|
22 |
+
loader = TextLoader(file_path, encoding='utf-8')
|
23 |
+
else:
|
24 |
+
# ignora formatos não suportados
|
25 |
+
continue
|
26 |
+
|
27 |
+
# Carrega todos os documentos e concatena o conteúdo
|
28 |
+
docs = loader.load()
|
29 |
+
for doc in docs:
|
30 |
+
all_contents.append(doc.page_content)
|
31 |
+
|
32 |
+
except Exception as e:
|
33 |
+
# Log simples de erro de leitura, para você ver no console
|
34 |
+
print(f"[rag_processor] Erro ao carregar '{filename}': {e}", flush=True)
|
35 |
+
|
36 |
+
# Remove os arquivos temporários após a extração
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
37 |
for file_path in file_paths:
|
38 |
try:
|
39 |
os.remove(file_path)
|
40 |
except OSError as e:
|
41 |
+
print(f"[rag_processor] Erro ao deletar '{file_path}': {e}", flush=True)
|
42 |
+
|
43 |
+
if not all_contents:
|
44 |
+
return "Nenhum documento de referência foi fornecido ou os formatos não são suportados."
|
45 |
+
|
46 |
+
# Retorna todo o texto concatenado, separado por duas quebras de linha
|
47 |
+
return "\n\n".join(all_contents)
|