luanpoppe commited on
Commit
3736ce1
·
1 Parent(s): c5586ab

feat: adicionando opção de escolher a llm das duas últimas requisições

Browse files
_utils/gerar_relatorio_modelo_usuario/EnhancedDocumentSummarizer.py CHANGED
@@ -119,6 +119,7 @@ class EnhancedDocumentSummarizer(DocumentSummarizer):
119
  vector_store: Chroma,
120
  bm25: BM25Okapi,
121
  chunk_ids: List[str],
 
122
  query: str = "Summarize the main points of this document",
123
  ) -> List[Dict]:
124
  """Generate enhanced summary using both vector and BM25 retrieval"""
@@ -153,61 +154,15 @@ class EnhancedDocumentSummarizer(DocumentSummarizer):
153
  }
154
  )
155
 
156
- # url_request = f"{api_url}/modelo/{self.id_modelo_do_usuario}"
157
- # try:
158
- # print("url_request: ", url_request)
159
- # resposta = requests.get(url_request)
160
- # print("resposta: ", resposta)
161
- # if resposta.status_code != 200:
162
- # print("Entrou no if de erro")
163
- # return Response(
164
- # {
165
- # "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica"
166
- # }
167
- # )
168
- # except:
169
- # return Response(
170
- # {
171
- # "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica"
172
- # }
173
- # )
174
-
175
- # modelo_buscado = resposta.json()["modelo"]
176
- # from modelos_usuarios.models import ModeloUsuarioModel
177
-
178
- # try:
179
- # # modelo_buscado = ModeloUsuarioModel.objects.get(
180
- # # pk=self.id_modelo_do_usuario
181
- # # )
182
- # # serializer = ModeloUsuarioSerializer(modelo_buscado)
183
- # # print("serializer.data: ", serializer.data)
184
- # modelo_buscado = await sync_to_async(ModeloUsuarioModel.objects.get)(
185
- # pk=self.id_modelo_do_usuario
186
- # )
187
- # serializer = await sync_to_async(ModeloUsuarioSerializer)(
188
- # modelo_buscado
189
- # )
190
- # print("serializer.data: ", serializer.data)
191
-
192
- # except Exception as e:
193
- # print("e: ", e)
194
- # return Response(
195
- # {
196
- # "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica",
197
- # "full_error": e,
198
- # },
199
- # 400,
200
- # )
201
-
202
- # print("modelo_buscado: ", serializer.data["modelo"])
203
-
204
- # llm_instance = LLM()
205
- # llm = llm_instance.deepseek()
206
- llm = ChatOpenAI(
207
- temperature=self.gpt_temperature,
208
- model=self.gpt_model,
209
- api_key=SecretStr(self.openai_api_key),
210
- )
211
 
212
  prompt_auxiliar = PromptTemplate(
213
  template=self.prompt_auxiliar, input_variables=["context"]
 
119
  vector_store: Chroma,
120
  bm25: BM25Okapi,
121
  chunk_ids: List[str],
122
+ llm_ultimas_requests: str,
123
  query: str = "Summarize the main points of this document",
124
  ) -> List[Dict]:
125
  """Generate enhanced summary using both vector and BM25 retrieval"""
 
154
  }
155
  )
156
 
157
+ if llm_ultimas_requests == "gpt-4o-mini":
158
+ llm = ChatOpenAI(
159
+ temperature=self.gpt_temperature,
160
+ model=self.gpt_model,
161
+ api_key=SecretStr(self.openai_api_key),
162
+ )
163
+ elif llm_ultimas_requests == "deepseek-chat":
164
+ llm_instance = LLM()
165
+ llm = llm_instance.deepseek()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
166
 
167
  prompt_auxiliar = PromptTemplate(
168
  template=self.prompt_auxiliar, input_variables=["context"]
_utils/resumo_completo_cursor.py CHANGED
@@ -98,14 +98,10 @@ async def get_llm_summary_answer_by_cursor_complete(
98
  )
99
  )
100
 
 
101
  # Generate enhanced summary
102
  structured_summaries = await summarizer.generate_enhanced_summary(
103
- vector_store,
104
- bm25,
105
- chunk_ids
106
- # , serializer["user_message"]
107
- ,
108
- prompt_auxiliar_SEM_CONTEXT,
109
  )
110
 
111
  if not isinstance(structured_summaries, list):
 
98
  )
99
  )
100
 
101
+ llm_ultimas_requests = serializer["llm_ultimas_requests"]
102
  # Generate enhanced summary
103
  structured_summaries = await summarizer.generate_enhanced_summary(
104
+ vector_store, bm25, chunk_ids, llm_ultimas_requests, prompt_auxiliar_SEM_CONTEXT
 
 
 
 
 
105
  )
106
 
107
  if not isinstance(structured_summaries, list):
gerar_documento/serializer.py CHANGED
@@ -46,6 +46,7 @@ class GerarDocumentoSerializer(ResumoCursorSerializer):
46
  id_modelo_do_usuario = serializers.IntegerField(required=False)
47
  should_have_contextual_chunks = serializers.BooleanField(default=False) # type: ignore
48
  should_use_llama_parse = serializers.BooleanField(required=False, default=False) # type: ignore
 
49
 
50
 
51
  class GerarDocumentoComPDFProprioSerializer(ResumoCursorSerializer):
@@ -74,3 +75,4 @@ class GerarDocumentoComPDFProprioSerializer(ResumoCursorSerializer):
74
  id_modelo_do_usuario = serializers.IntegerField(required=False, default=11)
75
  should_have_contextual_chunks = serializers.BooleanField(default=False) # type: ignore
76
  should_use_llama_parse = serializers.BooleanField(required=False, default=False) # type: ignore
 
 
46
  id_modelo_do_usuario = serializers.IntegerField(required=False)
47
  should_have_contextual_chunks = serializers.BooleanField(default=False) # type: ignore
48
  should_use_llama_parse = serializers.BooleanField(required=False, default=False) # type: ignore
49
+ llm_ultimas_requests = serializers.CharField(required=False, default="gpt-4o-mini")
50
 
51
 
52
  class GerarDocumentoComPDFProprioSerializer(ResumoCursorSerializer):
 
75
  id_modelo_do_usuario = serializers.IntegerField(required=False, default=11)
76
  should_have_contextual_chunks = serializers.BooleanField(default=False) # type: ignore
77
  should_use_llama_parse = serializers.BooleanField(required=False, default=False) # type: ignore
78
+ llm_ultimas_requests = serializers.CharField(required=False, default="gpt-4o-mini")