Spaces:
Sleeping
Sleeping
Commit
·
968a78b
1
Parent(s):
28e2bf1
Correções e evoluções
Browse files- app.py +4 -1
- config.py +4 -3
- custom_grok.py +4 -0
app.py
CHANGED
@@ -188,7 +188,10 @@ def merge():
|
|
188 |
yield f"data: {json.dumps({'progress': 0, 'message': 'Iniciando o processo de merge...'})}\n\n"
|
189 |
|
190 |
prompt_merge = PromptTemplate(template=PROMPT_ATOMICO_MERGE, input_variables=["solicitacao_usuario", "texto_para_analise_grok", "texto_para_analise_sonnet", "texto_para_analise_gemini"])
|
191 |
-
|
|
|
|
|
|
|
192 |
|
193 |
yield f"data: {json.dumps({'progress': 50, 'message': 'Enviando textos para o GROK para consolidação...'})}\n\n"
|
194 |
|
|
|
188 |
yield f"data: {json.dumps({'progress': 0, 'message': 'Iniciando o processo de merge...'})}\n\n"
|
189 |
|
190 |
prompt_merge = PromptTemplate(template=PROMPT_ATOMICO_MERGE, input_variables=["solicitacao_usuario", "texto_para_analise_grok", "texto_para_analise_sonnet", "texto_para_analise_gemini"])
|
191 |
+
|
192 |
+
# Cria uma instância do GROK com limite de tokens aumentado para o merge
|
193 |
+
grok_with_max_tokens = grok_llm.bind(max_tokens=100000)
|
194 |
+
chain_merge = LLMChain(llm=grok_with_max_tokens, prompt=prompt_merge)
|
195 |
|
196 |
yield f"data: {json.dumps({'progress': 50, 'message': 'Enviando textos para o GROK para consolidação...'})}\n\n"
|
197 |
|
config.py
CHANGED
@@ -182,9 +182,10 @@ PROMPT_ATOMICO_MERGE = """
|
|
182 |
Analise e escolha a melhor estrutura de seções entre os 3 textos e aplique no texto consolidado. A melhor estrutura de seções é aquela que melhor entendeu o objetivo da solicitação do usuário e que mais conseguir se aprofundar na abordagem do tema.
|
183 |
</structure>
|
184 |
|
185 |
-
<
|
186 |
-
|
187 |
-
|
|
|
188 |
|
189 |
<analysis>
|
190 |
Verifique a coesão, coerência e profundidade dos argumentos.
|
|
|
182 |
Analise e escolha a melhor estrutura de seções entre os 3 textos e aplique no texto consolidado. A melhor estrutura de seções é aquela que melhor entendeu o objetivo da solicitação do usuário e que mais conseguir se aprofundar na abordagem do tema.
|
183 |
</structure>
|
184 |
|
185 |
+
<caracters_count>
|
186 |
+
<minimum>24000</minimum>
|
187 |
+
<maximum>30000</maximum>
|
188 |
+
</caracters_count>
|
189 |
|
190 |
<analysis>
|
191 |
Verifique a coesão, coerência e profundidade dos argumentos.
|
custom_grok.py
CHANGED
@@ -38,6 +38,10 @@ class GrokChatModel(BaseChatModel):
|
|
38 |
"temperature": 0.7
|
39 |
}
|
40 |
|
|
|
|
|
|
|
|
|
41 |
try:
|
42 |
response = requests.post(
|
43 |
self.base_url,
|
|
|
38 |
"temperature": 0.7
|
39 |
}
|
40 |
|
41 |
+
# Adiciona max_tokens ao payload se for fornecido
|
42 |
+
if "max_tokens" in kwargs:
|
43 |
+
payload["max_tokens"] = kwargs["max_tokens"]
|
44 |
+
|
45 |
try:
|
46 |
response = requests.post(
|
47 |
self.base_url,
|