Spaces:
Running
Running
luanpoppe
commited on
Commit
·
3736ce1
1
Parent(s):
c5586ab
feat: adicionando opção de escolher a llm das duas últimas requisições
Browse files
_utils/gerar_relatorio_modelo_usuario/EnhancedDocumentSummarizer.py
CHANGED
@@ -119,6 +119,7 @@ class EnhancedDocumentSummarizer(DocumentSummarizer):
|
|
119 |
vector_store: Chroma,
|
120 |
bm25: BM25Okapi,
|
121 |
chunk_ids: List[str],
|
|
|
122 |
query: str = "Summarize the main points of this document",
|
123 |
) -> List[Dict]:
|
124 |
"""Generate enhanced summary using both vector and BM25 retrieval"""
|
@@ -153,61 +154,15 @@ class EnhancedDocumentSummarizer(DocumentSummarizer):
|
|
153 |
}
|
154 |
)
|
155 |
|
156 |
-
|
157 |
-
|
158 |
-
|
159 |
-
|
160 |
-
|
161 |
-
|
162 |
-
|
163 |
-
|
164 |
-
|
165 |
-
# "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica"
|
166 |
-
# }
|
167 |
-
# )
|
168 |
-
# except:
|
169 |
-
# return Response(
|
170 |
-
# {
|
171 |
-
# "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica"
|
172 |
-
# }
|
173 |
-
# )
|
174 |
-
|
175 |
-
# modelo_buscado = resposta.json()["modelo"]
|
176 |
-
# from modelos_usuarios.models import ModeloUsuarioModel
|
177 |
-
|
178 |
-
# try:
|
179 |
-
# # modelo_buscado = ModeloUsuarioModel.objects.get(
|
180 |
-
# # pk=self.id_modelo_do_usuario
|
181 |
-
# # )
|
182 |
-
# # serializer = ModeloUsuarioSerializer(modelo_buscado)
|
183 |
-
# # print("serializer.data: ", serializer.data)
|
184 |
-
# modelo_buscado = await sync_to_async(ModeloUsuarioModel.objects.get)(
|
185 |
-
# pk=self.id_modelo_do_usuario
|
186 |
-
# )
|
187 |
-
# serializer = await sync_to_async(ModeloUsuarioSerializer)(
|
188 |
-
# modelo_buscado
|
189 |
-
# )
|
190 |
-
# print("serializer.data: ", serializer.data)
|
191 |
-
|
192 |
-
# except Exception as e:
|
193 |
-
# print("e: ", e)
|
194 |
-
# return Response(
|
195 |
-
# {
|
196 |
-
# "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica",
|
197 |
-
# "full_error": e,
|
198 |
-
# },
|
199 |
-
# 400,
|
200 |
-
# )
|
201 |
-
|
202 |
-
# print("modelo_buscado: ", serializer.data["modelo"])
|
203 |
-
|
204 |
-
# llm_instance = LLM()
|
205 |
-
# llm = llm_instance.deepseek()
|
206 |
-
llm = ChatOpenAI(
|
207 |
-
temperature=self.gpt_temperature,
|
208 |
-
model=self.gpt_model,
|
209 |
-
api_key=SecretStr(self.openai_api_key),
|
210 |
-
)
|
211 |
|
212 |
prompt_auxiliar = PromptTemplate(
|
213 |
template=self.prompt_auxiliar, input_variables=["context"]
|
|
|
119 |
vector_store: Chroma,
|
120 |
bm25: BM25Okapi,
|
121 |
chunk_ids: List[str],
|
122 |
+
llm_ultimas_requests: str,
|
123 |
query: str = "Summarize the main points of this document",
|
124 |
) -> List[Dict]:
|
125 |
"""Generate enhanced summary using both vector and BM25 retrieval"""
|
|
|
154 |
}
|
155 |
)
|
156 |
|
157 |
+
if llm_ultimas_requests == "gpt-4o-mini":
|
158 |
+
llm = ChatOpenAI(
|
159 |
+
temperature=self.gpt_temperature,
|
160 |
+
model=self.gpt_model,
|
161 |
+
api_key=SecretStr(self.openai_api_key),
|
162 |
+
)
|
163 |
+
elif llm_ultimas_requests == "deepseek-chat":
|
164 |
+
llm_instance = LLM()
|
165 |
+
llm = llm_instance.deepseek()
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
166 |
|
167 |
prompt_auxiliar = PromptTemplate(
|
168 |
template=self.prompt_auxiliar, input_variables=["context"]
|
_utils/resumo_completo_cursor.py
CHANGED
@@ -98,14 +98,10 @@ async def get_llm_summary_answer_by_cursor_complete(
|
|
98 |
)
|
99 |
)
|
100 |
|
|
|
101 |
# Generate enhanced summary
|
102 |
structured_summaries = await summarizer.generate_enhanced_summary(
|
103 |
-
vector_store,
|
104 |
-
bm25,
|
105 |
-
chunk_ids
|
106 |
-
# , serializer["user_message"]
|
107 |
-
,
|
108 |
-
prompt_auxiliar_SEM_CONTEXT,
|
109 |
)
|
110 |
|
111 |
if not isinstance(structured_summaries, list):
|
|
|
98 |
)
|
99 |
)
|
100 |
|
101 |
+
llm_ultimas_requests = serializer["llm_ultimas_requests"]
|
102 |
# Generate enhanced summary
|
103 |
structured_summaries = await summarizer.generate_enhanced_summary(
|
104 |
+
vector_store, bm25, chunk_ids, llm_ultimas_requests, prompt_auxiliar_SEM_CONTEXT
|
|
|
|
|
|
|
|
|
|
|
105 |
)
|
106 |
|
107 |
if not isinstance(structured_summaries, list):
|
gerar_documento/serializer.py
CHANGED
@@ -46,6 +46,7 @@ class GerarDocumentoSerializer(ResumoCursorSerializer):
|
|
46 |
id_modelo_do_usuario = serializers.IntegerField(required=False)
|
47 |
should_have_contextual_chunks = serializers.BooleanField(default=False) # type: ignore
|
48 |
should_use_llama_parse = serializers.BooleanField(required=False, default=False) # type: ignore
|
|
|
49 |
|
50 |
|
51 |
class GerarDocumentoComPDFProprioSerializer(ResumoCursorSerializer):
|
@@ -74,3 +75,4 @@ class GerarDocumentoComPDFProprioSerializer(ResumoCursorSerializer):
|
|
74 |
id_modelo_do_usuario = serializers.IntegerField(required=False, default=11)
|
75 |
should_have_contextual_chunks = serializers.BooleanField(default=False) # type: ignore
|
76 |
should_use_llama_parse = serializers.BooleanField(required=False, default=False) # type: ignore
|
|
|
|
46 |
id_modelo_do_usuario = serializers.IntegerField(required=False)
|
47 |
should_have_contextual_chunks = serializers.BooleanField(default=False) # type: ignore
|
48 |
should_use_llama_parse = serializers.BooleanField(required=False, default=False) # type: ignore
|
49 |
+
llm_ultimas_requests = serializers.CharField(required=False, default="gpt-4o-mini")
|
50 |
|
51 |
|
52 |
class GerarDocumentoComPDFProprioSerializer(ResumoCursorSerializer):
|
|
|
75 |
id_modelo_do_usuario = serializers.IntegerField(required=False, default=11)
|
76 |
should_have_contextual_chunks = serializers.BooleanField(default=False) # type: ignore
|
77 |
should_use_llama_parse = serializers.BooleanField(required=False, default=False) # type: ignore
|
78 |
+
llm_ultimas_requests = serializers.CharField(required=False, default="gpt-4o-mini")
|