ixp
latest
false
  • Visão geral
    • Introdução
    • Extraindo Dados de documentos não estruturados
    • Criação e implantação de modelos
    • Cotas
  • Criação do modelo
    • Visão geral
    • Gerenciando projetos
    • Carregando documentos de amostra​
    • Revisando previsões
    • Validando previsões de extração
    • Configuração do modelo
  • Validação do modelo
  • Implantação do modelo
  • API
  • Perguntas frequentes
UiPath logo, featuring letters U and I in white

Guia do usuário de Documentos complexos e não estruturados

Última atualização 16 de dez de 2025

Configuração do modelo

Visão geral

Você pode configurar o LLM subjacente, bem como suas definições na opção Configuração do modelo na guia Criar.



As configurações disponíveis são:
  • Pré-processamento inteligente:
    • Nenhum
    • Modelo de tabela - Mini
    • Modelo de tabela
  • Modelo de extração:
    • GPT-4o
    • Gemini
  • Opções avançadas:
    • Atribuição
    • Temperatura
    • P superior
    • Semente
    • Penalidade de frequência
    • Solicitar substituição

Ajuste essas configurações para melhorar a precisão das previsões do modelo e aprimorar seu desempenho.

Pré-processamento inteligente

As opções de pré-processamento inteligentes melhoram o desempenho da previsão quando os documentos são difíceis para os modelos interpretarem, devido à formatação complexa.

Isso inclui as seguintes opções:
  • Nenhum - Essa opção padrão é adequada para a maioria dos documentos que não têm conteúdo tabular.
  • Modelo de tabela - mini - Otimizado para conteúdo tabular e latência. Esta opção é mais adequada para documentos com tabelas simples ou várias tabelas.
  • Modelo de tabela - Otimizado para conteúdo tabular mais complexo. Essa opção é mais adequada para documentos com tabelas aninhadas complexas, tabelas com células mescladas, pontos de marcação ou tabelas que abrangem várias páginas.
    Observação:
    • Embora isso tenha o melhor desempenho em tabelas complexas, ele aumenta a latência das previsões.
    • Essa funcionalidade depende dos modelos do Gemini por meio do AI Trust Layer.

Exemplo de pré-processamento inteligente

A imagem a seguir contém um exemplo de uma extração que consulta o LLM sem usar o modo Modelo de tabela, onde os valores da coluna this period são confundidos com os de outra coluna year to date.

A imagem a seguir contém um exemplo de uma extração usando o modo Modelo de tabela, onde os valores de ambas as colunas, this period e year to date, são extraídos corretamente.

Modelos de extração

A opção Modelo de extração representa o LLM subjacente usado para a extração.

Os modelos disponíveis são:
  • GPT-4o
  • Gemini

Escolha do modelo mais adequado

Diferentes modelos terão um desempenho diferente para diferentes casos de uso, mas recomenda-se que você use o Gemini onde possível. Vários outros recursos de pré e pós-processamento, que ajudam a otimizar o desempenho e a experiência do usuário, também são baseados no Gemini.

O GPT-4o tem uma restrição de 50 páginas e só pode processar mais usando a funcionalidade de chamada iterativa de visualização privada.

O Gemini pode processar documentos no IXP até 500 páginas em uma única chamada, com contagens de páginas mais elevadas compatíveis com a visualização. O limite do Gemini pode variar ligeiramente com base na densidade dos valores de campo dentro do documento. O modelo Gemini tem um limite de entrada de 500 páginas por padrão, em comparação com o limite de entrada de 50 páginas do GPT-4o. Além disso, o Gemini tem uma janela de contexto de saída mais alta, que permite que ele processe mais valores de campo.

Mudança de um modelo para outro

Para alternar de um modelo para outro, use a lista suspensa da opção Modelo de extração e selecione Salvar. Isso disparará uma nova versão do projeto a ser criada e novas previsões a serem geradas automaticamente.

Importante: para projetos maduros, as taxonomias, particularmente instruções e previsões confirmadas, especialmente para campos inferidos, são normalmente otimizadas para um tipo de modelo em detrimento de outro. É provável que após a troca, as pontuações de desempenho caiam, pois algumas iterações nas instruções e a reavaliação das previsões podem ser necessárias para desfazer otimizações específicas do modelo que podem afetar o desempenho do outro modelo.

Se você precisar mudar o modelo por motivo de desempenho, verifique primeiro se o modelo alternativo pode resolver o problema principal que o modelo atual não pode solucionar. Se puder, otimize o novo modelo para melhorar as métricas de desempenho em Measure.

Limites de processamento de documentos

Na prática, a Extração e Processamento Inteligente pode extrair com confiança até aproximadamente 1.200 valores de campo por documento.

Isso significa que, se um documento exigir que mais de 1.200 valores de campos sejam extraídos, o modelo poderá atingir seu limite de tokens. Isso pode acontecer mesmo que o documento esteja dentro dos limites de página listados nesta seção. O trabalho de pesquisa e desenvolvimento está em andamento para suportar limites de valor de campo mais altos em versões futuras.

Se os limites de token forem excedidos, as previsões podem estar incompletas ou vazias, independentemente do número de páginas. Por exemplo, um documento de 80 páginas com 1.400 valores de campos extraídos pode disparar um aviso de limite de token na interface do usuário. No runtime, quando o limite de token é excedido, a resposta da API mostra isso retornando valores de confiança de ocorrência e extração de 0.

Se os limites de páginas forem excedidos, apenas as páginas dentro dos limites especificados abaixo serão processadas. Ambos os comportamentos se aplicam ao Gemini e ao GPT-4o.

Os limites de runtime incluem:

  • Número de páginas por documento:
    • Para o Gemini, até 500 páginas.
    • Para GPT-4o, 50 páginas e até 150 páginas usando a funcionalidade de visualização privada de chamada iterativa.
  • Limites de token – Documentos com muitos dados com mais de 200 extrações, como tabelas longas, provavelmente atingirão o limite de token. Se o GPT4-o atingir seu limite, você poderá usar a funcionalidade de visualização privada de chamada iterativa para aumentar a saída do campo. O Gemini, no entanto, tem um limite de token de saída maior por padrão, então ambos os modelos podem retornar quantidades semelhantes de valores de campo — Gemini em uma única chamada e GPT por meio de várias chamadas.
Observação: para solicitar acesso à funcionalidade de visualização privada de chamadas iterativas, entre em contato com seu gerente de contas.

Opções avançadas

As opções avançadas permitem que você personalize as configurações para seus modelos, selecione qual método de atribuição usar e use a substituição da solicitação.

Observação: o uso de substituição da solicitação é recomendado apenas em casos excepcionais.

Expandir a configuração para visualização de todas as opções disponíveis:

  • Atribuição - O método usado para atribuir previsões à parte ou texto relevante no documento. Selecione uma das seguintes opções:
    • Baseada em regras - Usa um conjunto extenso de regras e heurísticas para fazer a correspondência dos intervalos corretos em uma página com os valores previstos do modelo. Essa é uma opção de baixa latência, mas sacrifica o desempenho em termos de atribuições bem-sucedidas em comparação com a opção baseada em modelo.
    • Baseada em modelo - Usa uma chamada de LLM adicional para fazer a correspondência bem-sucedida dos valores previstos com os intervalos corretos na página, pois esses valores podem muitas vezes ser repetidos em diferentes partes da página. Essa é a opção de mais desempenho em termos de atribuições bem-sucedidas, mas adiciona alguma latência às previsões. Essa opção depende do uso de modelos do Gemini.
  • Temperatura – A temperatura de amostragem a ser usada. Selecione um número entre 0,0 e 2,0. Valores mais altos tornam a saída mais aleatória.
  • P superior - Amostras apenas de tokens com a massa de probabilidade top_p​. Selecione um número entre 0,0 e 1,0.
  • Semente – Se especificado, as solicitações repetidas com a mesma semente e parâmetros devem retornar o mesmo resultado.
  • Penalidade de frequência – Selecione um número entre -2,0 e 2,0. Os valores positivos reduzem a probabilidade de o modelo repetir tokens que já apareceram no texto.
  • Substituição de solicitação – Substitui a solicitação do sistema padrão por um novo valor. Esta opção está desabilitada por padrão. Uma vez habilitadas, as opções de solicitação Acrescentar instruções de tarefa e Acrescentar instruções de campo são habilitadas para configuração.
Observação: a equipe da UiPath® pesquisou e otimizou os padrões para as configurações do modelo, como Temperatura, P superior e Frequência. Como resultado, você não precisa ajustar esses valores, a menos que você saiba de quais configurações específicas você precisa.

  • Visão geral
  • Pré-processamento inteligente
  • Exemplo de pré-processamento inteligente
  • Modelos de extração
  • Opções avançadas

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo
Confiança e segurança
© 2005-2025 UiPath. Todos os direitos reservados.