ixp
latest
false
  • Visão geral
    • Introdução
    • Extraindo Dados de documentos não estruturados
    • Criação e implantação de modelos
    • Cotas
  • Criação do modelo
    • Visão geral
    • Gerenciando projetos
    • Carregando documentos de amostra​
    • Revisando previsões
    • Validando previsões de extração
    • Configuração do modelo
  • Validação do modelo
  • Implantação do modelo
  • Perguntas frequentes
UiPath logo, featuring letters U and I in white

Guia do usuário de documentos não estruturados e complexos

Última atualização 6 de out de 2025

Configuração do modelo

Visão geral

Você pode configurar o LLM subjacente, bem como suas configurações na opção Configuração do modelo na guia Criar .



As configurações disponíveis são:
  • Pré-processamento inteligente:
    • Nenhum
    • Modelo de tabela - Mini
    • Modelo de tabela
  • Modelo de extração:
    • GPT-4o
    • Gemini
  • Opções avançadas:
    • Atribuição
    • Temperatura
    • P superior
    • Semente
    • Penalidade de frequência
    • Solicitar substituição

Ajuste essas configurações para melhorar a precisão das previsões do modelo e aprimorar seu desempenho.

Pré-processamento inteligente

Opções inteligentes de pré-processamento melhoram o desempenho da previsão quando é difícil para os modelos interpretarem, devido à formatação complexa.

Isso inclui as seguintes opções:
  • Nenhum - Essa opção padrão é adequada para a maioria dos documentos que não têm conteúdo tabular.
  • Modelo de tabela - mini - Otimizado para conteúdo tabular e latência. Essa opção é mais adequada para documentos com tabelas simples ou várias tabelas.
  • Modelo de tabela — Otimizado para um conteúdo tabular mais complexo. Essa opção é mais adequada para documentos com tabelas aninhadas complexas, tabelas com células mescladas, pontos de marcador ou tabelas que abrangem várias páginas.
    Observação:
    • Embora isso tenha um melhor desempenho em tabelas complexas, ele aumenta a latência das previsões.
    • Essa funcionalidade depende de modelos do Gemini por meio da AI Trust Layer.

Exemplo de pré-processamento inteligente

A imagem a seguir contém um exemplo de uma extração que consulta o LLM sem usar o modo Modelo de tabela, onde os valores da coluna this period são confundidos com os de outra coluna year to date.

A imagem a seguir contém um exemplo de uma extração usando o modo Modelo de tabela, onde os valores de ambas as colunas, this period e year to date, são extraídos corretamente.

Modelos de extração

A opção Modelo de extração representa o LLM subjacente usado para extração.

Os modelos disponíveis são:
  • GPT-4o
  • Gemini

Escolha do modelo mais adequado

Diferentes modelos terão um desempenho diferente para diferentes casos de uso, mas é recomendável usar o Gemini quando possível. Várias outras funcionalidades de pré e pós-processamento, que ajudam a otimizar o desempenho e a experiência do usuário, também são baseadas no Gemini.

O GPT-4o tem uma restrição de 50 páginas e só pode processar mais usando a funcionalidade de chamada iterativa visualizada atualmente. A Gemini não tem a mesma restrição e pode processar documentos na Extração e Processamento Inteligente de até 200 páginas em uma única chamada. O limite de Gemini pode variar um pouco com base na densidade de valores de campo dentro do documento.

Além disso, o modelo Gemini tem um limite de entrada de 200 páginas por padrão, em comparação com o limite de entrada de 50 páginas do GPT-4o.

Mudança de um modelo para outro

Para alternar de um modelo para outro, use a lista suspensa da opção Modelo de extração e selecione Salvar. Isso disparará uma nova versão do projeto a ser criada e novas previsões serão geradas automaticamente.

Importante: para projetos maduras, as taxonomias, especialmente as instruções, e as previsões confirmadas, especialmente para campos inferidos, normalmente são otimizadas para um tipo de modelo em vez do outro. É provável que, depois da mudança, as pontuações de desempenho possam cair, pois pode ser necessária alguma iteração nas instruções e uma nova revisão das previsões para desfazer otimizações específicas do modelo que podem estar afetando o desempenho do outro modelo.

Se você precisar alternar o modelo por motivos de desempenho, verifique primeiro se o modelo alternativo pode resolver o problema principal que o modelo atual não pode resolver. Se puder, otimize o novo modelo para melhorar as métricas de desempenho em Medir.

Opções avançadas

As opções avançadas permitem que você personalize as configurações para seus modelos, selecione qual método de atribuição usar e use a substituição de prompt.

Observação: o uso da substituição de prompt é recomendado apenas em casos excepcionais.

Expanda a configuração para ver todas as opções disponíveis:

  • Atribuição - O método usado para atribuir previsões à parte ou texto relevante no documento. Selecione uma das seguintes opções:
    • Baseado em regras — usa um conjunto extenso de regras e heurística para corresponder os intervalos corretos em uma página aos valores previstos a partir do modelo. Essa é uma opção de baixa latência, mas herda o desempenho em termos de atribuições bem-sucedidas em comparação com a opção baseada em modelo.
    • Baseado em modelo - Usa uma chamada adicional de LLM para corresponder com sucesso os valores previstos aos intervalos corretos na página, pois esses valores podem ser repetidos em diferentes partes da página. Essa é a opção de melhor desempenho em termos de atribuições bem-sucedidas, mas adiciona alguma latência às previsões. Esta opção depende do uso de modelos Gemini.
  • Temperatura – A temperatura de amostragem a ser usada. Selecione um número entre 0,0 e 2,0. Valores mais altos tornam a saída mais aleatória.
  • P superior - Amostras apenas de tokens com a massa de probabilidade top_p . Selecione um número entre 0,0 e 1,0.
  • Semente – Se especificado, as solicitações repetidas com a mesma semente e parâmetros devem retornar o mesmo resultado.
  • Penalidade de frequência – Selecione um número entre -2,0 e 2,0. Os valores positivos reduzem a probabilidade de o modelo repetir tokens que já apareceram no texto.
  • Substituição de prompt - Substitui o prompt padrão do sistema com um novo valor. Esta opção está desabilitada por padrão. Uma vez habilitada, o prompt de instruções Acrescentar tarefa e as opções de prompt de instruções de campo Acrescentar estarão habilitadas para configuração.
Observação: a equipe da UiPath® pesquisou e otimizou os padrões para configurações de modelo, como Temperatura, P superior e Frequência. Como resultado, você não precisa ajustar esses valores a menos que saiba de quais configurações específicas precisa.

  • Visão geral
  • Pré-processamento inteligente
  • Exemplo de pré-processamento inteligente
  • Modelos de extração
  • Opções avançadas

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo
Confiança e segurança
© 2005-2025 UiPath. Todos os direitos reservados.