- Visão geral
- Criação do modelo
- Validação do modelo
- Implantação do modelo
- Perguntas frequentes

Guia do usuário de documentos não estruturados e complexos
Você pode configurar o LLM subjacente, bem como suas configurações na opção Configuração do modelo na guia Criar .
- Pré-processamento inteligente:
- Nenhum
- Modelo de tabela - Mini
- Modelo de tabela
- Modelo de extração:
- GPT-4o
- Gemini
- Opções avançadas:
- Atribuição
- Temperatura
- P superior
- Semente
- Penalidade de frequência
- Solicitar substituição
Ajuste essas configurações para melhorar a precisão das previsões do modelo e aprimorar seu desempenho.
Opções inteligentes de pré-processamento melhoram o desempenho da previsão quando é difícil para os modelos interpretarem, devido à formatação complexa.
- Nenhum - Essa opção padrão é adequada para a maioria dos documentos que não têm conteúdo tabular.
- Modelo de tabela - mini - Otimizado para conteúdo tabular e latência. Essa opção é mais adequada para documentos com tabelas simples ou várias tabelas.
- Modelo de tabela — Otimizado para um conteúdo tabular mais complexo. Essa opção é mais adequada para documentos com tabelas aninhadas complexas, tabelas com células mescladas, pontos de marcador ou tabelas que abrangem várias páginas.
Observação:
- Embora isso tenha um melhor desempenho em tabelas complexas, ele aumenta a latência das previsões.
- Essa funcionalidade depende de modelos do Gemini por meio da AI Trust Layer.
Exemplo de pré-processamento inteligente
this period
são confundidos com os de outra coluna year to date
.this period
e year to date
, são extraídos corretamente.A opção Modelo de extração representa o LLM subjacente usado para extração.
- GPT-4o
- Gemini
Escolha do modelo mais adequado
Diferentes modelos terão um desempenho diferente para diferentes casos de uso, mas é recomendável usar o Gemini quando possível. Várias outras funcionalidades de pré e pós-processamento, que ajudam a otimizar o desempenho e a experiência do usuário, também são baseadas no Gemini.
O GPT-4o tem uma restrição de 50 páginas e só pode processar mais usando a funcionalidade de chamada iterativa visualizada atualmente. A Gemini não tem a mesma restrição e pode processar documentos na Extração e Processamento Inteligente de até 200 páginas em uma única chamada. O limite de Gemini pode variar um pouco com base na densidade de valores de campo dentro do documento.
Além disso, o modelo Gemini tem um limite de entrada de 200 páginas por padrão, em comparação com o limite de entrada de 50 páginas do GPT-4o.
Mudança de um modelo para outro
Para alternar de um modelo para outro, use a lista suspensa da opção Modelo de extração e selecione Salvar. Isso disparará uma nova versão do projeto a ser criada e novas previsões serão geradas automaticamente.
Se você precisar alternar o modelo por motivos de desempenho, verifique primeiro se o modelo alternativo pode resolver o problema principal que o modelo atual não pode resolver. Se puder, otimize o novo modelo para melhorar as métricas de desempenho em Medir.
As opções avançadas permitem que você personalize as configurações para seus modelos, selecione qual método de atribuição usar e use a substituição de prompt.
Expanda a configuração para ver todas as opções disponíveis:
- Atribuição - O método usado para atribuir previsões à parte ou texto relevante no documento. Selecione uma das seguintes opções:
- Baseado em regras — usa um conjunto extenso de regras e heurística para corresponder os intervalos corretos em uma página aos valores previstos a partir do modelo. Essa é uma opção de baixa latência, mas herda o desempenho em termos de atribuições bem-sucedidas em comparação com a opção baseada em modelo.
- Baseado em modelo - Usa uma chamada adicional de LLM para corresponder com sucesso os valores previstos aos intervalos corretos na página, pois esses valores podem ser repetidos em diferentes partes da página. Essa é a opção de melhor desempenho em termos de atribuições bem-sucedidas, mas adiciona alguma latência às previsões. Esta opção depende do uso de modelos Gemini.
- Temperatura – A temperatura de amostragem a ser usada. Selecione um número entre 0,0 e 2,0. Valores mais altos tornam a saída mais aleatória.
- P superior - Amostras apenas de tokens com a massa de probabilidade
top_p
. Selecione um número entre 0,0 e 1,0. - Semente – Se especificado, as solicitações repetidas com a mesma semente e parâmetros devem retornar o mesmo resultado.
- Penalidade de frequência – Selecione um número entre -2,0 e 2,0. Os valores positivos reduzem a probabilidade de o modelo repetir tokens que já apareceram no texto.
- Substituição de prompt - Substitui o prompt padrão do sistema com um novo valor. Esta opção está desabilitada por padrão. Uma vez habilitada, o prompt de instruções Acrescentar tarefa e as opções de prompt de instruções de campo Acrescentar estarão habilitadas para configuração.