- Visão geral
- Criação do modelo
- Validação do modelo
- Implantação do modelo
- API
- Perguntas frequentes

Guia do usuário de Documentos complexos e não estruturados
Você pode configurar o LLM subjacente, bem como suas definições na opção Configuração do modelo na guia Criar.
- Pré-processamento inteligente:
- Nenhum
- Modelo de tabela - Mini
- Modelo de tabela
- Modelo de extração:
- GPT-4o
- Gemini
- Opções avançadas:
- Atribuição
- Temperatura
- P superior
- Semente
- Penalidade de frequência
- Solicitar substituição
Ajuste essas configurações para melhorar a precisão das previsões do modelo e aprimorar seu desempenho.
As opções de pré-processamento inteligentes melhoram o desempenho da previsão quando os documentos são difíceis para os modelos interpretarem, devido à formatação complexa.
- Nenhum - Essa opção padrão é adequada para a maioria dos documentos que não têm conteúdo tabular.
- Modelo de tabela - mini - Otimizado para conteúdo tabular e latência. Esta opção é mais adequada para documentos com tabelas simples ou várias tabelas.
- Modelo de tabela - Otimizado para conteúdo tabular mais complexo. Essa opção é mais adequada para documentos com tabelas aninhadas complexas, tabelas com células mescladas, pontos de marcação ou tabelas que abrangem várias páginas.
Observação:
- Embora isso tenha o melhor desempenho em tabelas complexas, ele aumenta a latência das previsões.
- Essa funcionalidade depende dos modelos do Gemini por meio do AI Trust Layer.
Exemplo de pré-processamento inteligente
this period são confundidos com os de outra coluna year to date.this period e year to date, são extraídos corretamente.A opção Modelo de extração representa o LLM subjacente usado para a extração.
- GPT-4o
- Gemini
Escolha do modelo mais adequado
Diferentes modelos terão um desempenho diferente para diferentes casos de uso, mas recomenda-se que você use o Gemini onde possível. Vários outros recursos de pré e pós-processamento, que ajudam a otimizar o desempenho e a experiência do usuário, também são baseados no Gemini.
O GPT-4o tem uma restrição de 50 páginas e só pode processar mais usando a funcionalidade de chamada iterativa de visualização privada.
O Gemini pode processar documentos no IXP até 500 páginas em uma única chamada, com contagens de páginas mais elevadas compatíveis com a visualização. O limite do Gemini pode variar ligeiramente com base na densidade dos valores de campo dentro do documento. O modelo Gemini tem um limite de entrada de 500 páginas por padrão, em comparação com o limite de entrada de 50 páginas do GPT-4o. Além disso, o Gemini tem uma janela de contexto de saída mais alta, que permite que ele processe mais valores de campo.
Mudança de um modelo para outro
Para alternar de um modelo para outro, use a lista suspensa da opção Modelo de extração e selecione Salvar. Isso disparará uma nova versão do projeto a ser criada e novas previsões a serem geradas automaticamente.
Se você precisar mudar o modelo por motivo de desempenho, verifique primeiro se o modelo alternativo pode resolver o problema principal que o modelo atual não pode solucionar. Se puder, otimize o novo modelo para melhorar as métricas de desempenho em Measure.
Limites de processamento de documentos
Na prática, a Extração e Processamento Inteligente pode extrair com confiança até aproximadamente 1.200 valores de campo por documento.
Isso significa que, se um documento exigir que mais de 1.200 valores de campos sejam extraídos, o modelo poderá atingir seu limite de tokens. Isso pode acontecer mesmo que o documento esteja dentro dos limites de página listados nesta seção. O trabalho de pesquisa e desenvolvimento está em andamento para suportar limites de valor de campo mais altos em versões futuras.
Se os limites de token forem excedidos, as previsões podem estar incompletas ou vazias, independentemente do número de páginas. Por exemplo, um documento de 80 páginas com 1.400 valores de campos extraídos pode disparar um aviso de limite de token na interface do usuário. No runtime, quando o limite de token é excedido, a resposta da API mostra isso retornando valores de confiança de ocorrência e extração de 0.
Se os limites de páginas forem excedidos, apenas as páginas dentro dos limites especificados abaixo serão processadas. Ambos os comportamentos se aplicam ao Gemini e ao GPT-4o.
Os limites de runtime incluem:
- Número de páginas por documento:
- Para o Gemini, até 500 páginas.
- Para GPT-4o, 50 páginas e até 150 páginas usando a funcionalidade de visualização privada de chamada iterativa.
- Limites de token – Documentos com muitos dados com mais de 200 extrações, como tabelas longas, provavelmente atingirão o limite de token. Se o GPT4-o atingir seu limite, você poderá usar a funcionalidade de visualização privada de chamada iterativa para aumentar a saída do campo. O Gemini, no entanto, tem um limite de token de saída maior por padrão, então ambos os modelos podem retornar quantidades semelhantes de valores de campo — Gemini em uma única chamada e GPT por meio de várias chamadas.
As opções avançadas permitem que você personalize as configurações para seus modelos, selecione qual método de atribuição usar e use a substituição da solicitação.
Expandir a configuração para visualização de todas as opções disponíveis:
- Atribuição - O método usado para atribuir previsões à parte ou texto relevante no documento. Selecione uma das seguintes opções:
- Baseada em regras - Usa um conjunto extenso de regras e heurísticas para fazer a correspondência dos intervalos corretos em uma página com os valores previstos do modelo. Essa é uma opção de baixa latência, mas sacrifica o desempenho em termos de atribuições bem-sucedidas em comparação com a opção baseada em modelo.
- Baseada em modelo - Usa uma chamada de LLM adicional para fazer a correspondência bem-sucedida dos valores previstos com os intervalos corretos na página, pois esses valores podem muitas vezes ser repetidos em diferentes partes da página. Essa é a opção de mais desempenho em termos de atribuições bem-sucedidas, mas adiciona alguma latência às previsões. Essa opção depende do uso de modelos do Gemini.
- Temperatura – A temperatura de amostragem a ser usada. Selecione um número entre 0,0 e 2,0. Valores mais altos tornam a saída mais aleatória.
- P superior - Amostras apenas de tokens com a massa de probabilidade
top_p. Selecione um número entre 0,0 e 1,0. - Semente – Se especificado, as solicitações repetidas com a mesma semente e parâmetros devem retornar o mesmo resultado.
- Penalidade de frequência – Selecione um número entre -2,0 e 2,0. Os valores positivos reduzem a probabilidade de o modelo repetir tokens que já apareceram no texto.
- Substituição de solicitação – Substitui a solicitação do sistema padrão por um novo valor. Esta opção está desabilitada por padrão. Uma vez habilitadas, as opções de solicitação Acrescentar instruções de tarefa e Acrescentar instruções de campo são habilitadas para configuração.