📋
Documento Técnico · Devolutiva

Devolutiva das 5 Observações

Análise técnica de cada ponto levantado pelo Eng. Sergio Ejzenberg, diagnóstico da causa raiz e correções aplicadas.
Observações do Cliente

5 pontos analisados e corrigidos

Todas as correções foram aplicadas no backend do sistema. Não requerem nenhuma ação por parte do usuário.

1 Fontes citadas sem clareza ✓ Corrigido
“O rascunho poupa um trabalho enorme, ao utilizar o vasto conjunto de documentos como suporte. A indicação da fonte citada porém não está clara.”
🔍 Diagnóstico
O prompt do agente continha apenas uma instrução genérica (“Cite SEMPRE a fonte”) sem especificar o formato de citação.
✅ Correção aplicada
Formato de citação agora é obrigatório: [Nome do Arquivo, p. X, “trecho literal entre aspas”]. Quando a evidência não contém a informação, o agente avisa explicitamente.
2 Texto abreviado e indigesto ✓ Corrigido
“O texto economiza palavras e usa abreviações, sendo difícil e indigesto, provavelmente por conta da restrição que havia de 3000 palavras.”
🔍 Diagnóstico
Correto. O limite de resposta estava em 4.096–8.192 tokens, forçando o modelo a comprimir o texto. Além disso, não havia instrução explícita de estilo discursivo.
✅ Correção aplicada
Limite quadruplicado para 16.384 tokens (com continuação automática). Instrução adicionada: “Escreva texto COMPLETO, DISCURSIVO e FUNDAMENTADO. NÃO use abreviações. NÃO economize palavras.”
3 Falhas de lógica (múltiplas e sanáveis) ✓ Corrigido
“São múltiplas, pequenas e sanáveis as falhas de lógica.”
🔍 Diagnóstico
Esperado na fase de calibração. O modelo recebia trechos de documentos via busca textual (RAG), mas sem a narrativa cronológica completa do caso. Isso causava inferências incorretas entre trechos desconectados.
✅ Correção aplicada
Base de conhecimento enriquecida com a timeline completa do caso, evidências consolidadas e narrativa cronológica. O modelo agora tem o “fio condutor” que reduz significativamente inferências incorretas. Cada interação do usuário continua refinando o comportamento.
4 Quesitos respondidos como Perito Judicial ✓ Corrigido
“Os quesitos foram respondidos no modo Perito Judicial. Deveriam ser respondidos no modo Assistente Técnico.”
🔍 Diagnóstico
O prompt definia o agente como “Perito sênior” sem especificar o papel processual. Perito Judicial é nomeado pelo Juízo e deve ser imparcial. Assistente Técnico é indicado pela parte.
✅ Correção aplicada
Papel processual redefinido: “Você atua como ASSISTENTE TÉCNICO DA P4, NÃO como Perito Judicial.” Linguagem ajustada para AT: “o Assistente Técnico da P4 observa que...”, “cumpre esclarecer que...”. Proibido usar linguagem de Perito Judicial.
5 Diferenciar AT da P4 vs AT da ARQUIPLAN ✓ Corrigido
“É preciso que o agente saiba diferenciar entre assistente técnico da P4 e assistente técnico da ARQUIPLAN.”
🔍 Diagnóstico
O prompt não mencionava a existência de um AT adversário. O modelo não sabia que há um Assistente Técnico do outro lado com posições contrárias.
✅ Correção aplicada
Seção dedicada adicionada: (1) AT da P4 = você, representa a construtora, cliente do Eng. Sergio. (2) AT da ARQUIPLAN = adversário processual, representa a incorporadora. O agente agora identifica de qual parte provém cada documento e se posiciona como AT da P4.
Diagnóstico Complementar

Isolamento entre casos AR30 e AR21

Identificamos que o agente, em alguns momentos, misturava dados entre os casos AR30 e AR21. Realizamos diagnóstico completo do acervo documental.

Resultado da análise do acervo

23.500
Chunks AR21
667
Chunks AR30
202
Arquivos AR21
71
Arquivos AR30

Todos os arquivos estão corretamente classificados por caso. Não há arquivos sem classificação ou com classificação incorreta.

A confusão ocorria porque 7 documentos legítimos mencionam ambos os casos (rescisões conjuntas, planilhas consolidadas, atas gerenciais). Esses documentos estão corretos — a rescisão foi de fato conjunta (AR25/AR18/AR21/AR30).

Conclusão: Os documentos estão corretos e não precisam ser revisados ou renomeados. O problema era exclusivamente na instrução do agente, que não separava os dados por caso.

Como funciona agora

🔒
Isolamento padrão
Caso AR30 ativo = agente usa dados de AR30. Caso AR21 ativo = dados de AR21.
🔄
Referência cruzada
Quando o usuário pedir expressamente (“compare com AR21”, “dados consolidados”), o agente acessa ambos os casos, identificando claramente qual dado pertence a qual caso.
📄
Docs compartilhados
Rescisões conjuntas e planilhas consolidadas são tratadas com identificação explícita: [AR30] R$ X vs [AR21] R$ Y.
Resumo

Nenhuma ação necessária

Todas as correções foram aplicadas no backend. O sistema já está operando com as novas instruções.

Para o Eng. Sergio: Basta fazer uma nova pergunta ao agente para ver as mudanças. Não é necessário limpar cache, recarregar a página ou revisar documentos. As correções são todas no servidor.

Documentos: Estão corretos e bem classificados. Não precisam ser revisados ou renomeados.

Calibração contínua: O agente melhora com o uso. Cada observação como as 5 acima nos permite refinar o comportamento de forma precisa e rápida.