Spaces:
				
			
			
	
			
			
					
		Running
		
	
	
	
			
			
	
	
	
	
		
		
					
		Running
		
	
		luanpoppe
		
	commited on
		
		
					Commit 
							
							·
						
						9ee4c9e
	
1
								Parent(s):
							
							250b607
								
fix: validação de erro nos prompts 2 e 3
Browse files
    	
        _utils/gerar_documento_utils/GerarDocumento.py
    CHANGED
    
    | @@ -271,7 +271,10 @@ class GerarDocumento: | |
| 271 | 
             
                                self.prompt_gerar_documento_etapa_2,
         | 
| 272 | 
             
                                dynamic_dict={"context": context_do_prompt_primeira_etapa},
         | 
| 273 | 
             
                            )
         | 
| 274 | 
            -
                            documento_gerado = llm.invoke(prompt_etapa_2).content
         | 
|  | |
|  | |
|  | |
| 275 | 
             
                            resposta_segunda_etapa = documento_gerado
         | 
| 276 | 
             
                            texto_final_juntando_as_etapas += (
         | 
| 277 | 
             
                                f"\n\nresposta_segunda_etapa:{resposta_segunda_etapa}"
         | 
| @@ -286,7 +289,10 @@ class GerarDocumento: | |
| 286 | 
             
                                    "context": f"{resposta_primeira_etapa}\n\n{resposta_segunda_etapa}"
         | 
| 287 | 
             
                                },
         | 
| 288 | 
             
                            )
         | 
| 289 | 
            -
                            documento_gerado = llm.invoke(prompt_etapa_3).content
         | 
|  | |
|  | |
|  | |
| 290 | 
             
                            texto_final_juntando_as_etapas += f"\n\n{documento_gerado}"
         | 
| 291 | 
             
                            self.axiom_instance.send_axiom(f"RESULTADO ETAPA 3: {documento_gerado}")
         | 
| 292 |  | 
| @@ -316,6 +322,9 @@ class GerarDocumento: | |
| 316 | 
             
                        try:
         | 
| 317 | 
             
                            resposta = llm.invoke(prompt)
         | 
| 318 | 
             
                            if hasattr(resposta, "content") and resposta.content.strip():  # type: ignore
         | 
|  | |
|  | |
|  | |
| 319 | 
             
                                documento_gerado = resposta.content.strip()  # type: ignore
         | 
| 320 | 
             
                            else:
         | 
| 321 | 
             
                                print(f"Tentativa {tentativas}: resposta vazia ou inexistente.")
         | 
|  | |
| 271 | 
             
                                self.prompt_gerar_documento_etapa_2,
         | 
| 272 | 
             
                                dynamic_dict={"context": context_do_prompt_primeira_etapa},
         | 
| 273 | 
             
                            )
         | 
| 274 | 
            +
                            # documento_gerado = llm.invoke(prompt_etapa_2).content
         | 
| 275 | 
            +
                            documento_gerado = self.checar_se_resposta_vazia_do_documento_final(
         | 
| 276 | 
            +
                                llm_ultimas_requests, prompt_etapa_2.to_string()
         | 
| 277 | 
            +
                            )
         | 
| 278 | 
             
                            resposta_segunda_etapa = documento_gerado
         | 
| 279 | 
             
                            texto_final_juntando_as_etapas += (
         | 
| 280 | 
             
                                f"\n\nresposta_segunda_etapa:{resposta_segunda_etapa}"
         | 
|  | |
| 289 | 
             
                                    "context": f"{resposta_primeira_etapa}\n\n{resposta_segunda_etapa}"
         | 
| 290 | 
             
                                },
         | 
| 291 | 
             
                            )
         | 
| 292 | 
            +
                            # documento_gerado = llm.invoke(prompt_etapa_3).content
         | 
| 293 | 
            +
                            documento_gerado = self.checar_se_resposta_vazia_do_documento_final(
         | 
| 294 | 
            +
                                llm_ultimas_requests, prompt_etapa_3.to_string()
         | 
| 295 | 
            +
                            )
         | 
| 296 | 
             
                            texto_final_juntando_as_etapas += f"\n\n{documento_gerado}"
         | 
| 297 | 
             
                            self.axiom_instance.send_axiom(f"RESULTADO ETAPA 3: {documento_gerado}")
         | 
| 298 |  | 
|  | |
| 322 | 
             
                        try:
         | 
| 323 | 
             
                            resposta = llm.invoke(prompt)
         | 
| 324 | 
             
                            if hasattr(resposta, "content") and resposta.content.strip():  # type: ignore
         | 
| 325 | 
            +
                                if isinstance(resposta.content, list):
         | 
| 326 | 
            +
                                    resposta.content = "\n".join(resposta.content)  # type: ignore
         | 
| 327 | 
            +
             | 
| 328 | 
             
                                documento_gerado = resposta.content.strip()  # type: ignore
         | 
| 329 | 
             
                            else:
         | 
| 330 | 
             
                                print(f"Tentativa {tentativas}: resposta vazia ou inexistente.")
         | 
    	
        _utils/gerar_documento_utils/llm_calls.py
    CHANGED
    
    | @@ -65,4 +65,8 @@ async def agemini_answer( | |
| 65 | 
             
            ) -> str:
         | 
| 66 | 
             
                gemini = llm.google_gemini(model)
         | 
| 67 | 
             
                resposta = await gemini.ainvoke([HumanMessage(content=prompt)])
         | 
|  | |
|  | |
|  | |
|  | |
| 68 | 
             
                return cast(str, resposta.content)
         | 
|  | |
| 65 | 
             
            ) -> str:
         | 
| 66 | 
             
                gemini = llm.google_gemini(model)
         | 
| 67 | 
             
                resposta = await gemini.ainvoke([HumanMessage(content=prompt)])
         | 
| 68 | 
            +
             | 
| 69 | 
            +
                if isinstance(resposta.content, list):
         | 
| 70 | 
            +
                    resposta.content = "\n".join(resposta.content)  # type: ignore
         | 
| 71 | 
            +
             | 
| 72 | 
             
                return cast(str, resposta.content)
         |