communications-mining
latest
false
Importante :
Este conteúdo foi traduzido com auxílio de tradução automática.
Guia do usuário do Communications Mining
Last updated 3 de out de 2024

CommPath LLM vs. Preview LLM

Observação: para gerar suas extrações, existem dois LLMs disponíveis diferentes para você escolher:
  1. CommPath LLM
  2. Visualização do LLM

Abaixo está um resumo de algumas das considerações ao decidir sobre um LLM a ser usado. Se seu caso de uso exigir a extração mais de 30 campos por mensagem, recomendamos atualmente o uso do LLM de Visualização.

CommPath LLM

  • Aproveita o LLM proprietário da UiPath®, ajustado para dados de Communications.
  • Atualmente limitado à extração de aprox. 30 campos por mensagem​.
  • Menos latência do que a versão de visualização LLM​.
  • Pode ser ajustado com base nos seus dados.
  • Melhorar o desempenho para a CommPath, tanto em termos do número de campos que podem ser extraídos quanto na velocidade de inferência para o modelo, é uma alta prioridade para 2024.
  • Confiança de ocorrência maior (consulte a seção Automação com GenEx para obter mais detalhes) em comparação com o LLM de Visualização.​

Visualização do LLM​

  • Aproveita o modelo GPT do Azure OpenAI como o LLM subjacente.
  • A UiPath® não pode garantir tempo de atividade, pois isso depende inteiramente dos pontos de extremidade do Azure OpenAI. Se os endpoints estiverem inoperantes ou sobrecarregados, a UiPath® não pode garantir a disponibilidade​.
  • Você pode extrair mais de 30 campos por mensagem.
  • Maior quantidade de latência em comparação com o CommPath LLM​.
  • Limitado ao aprendizado no contexto​.
    Observação: ao usar o aprendizado em contexto, a plataforma só pode aprender com o que você alerta. O Communications Mining pode refinar automaticamente o prompt até certo ponto, mas o modelo não aprende com nenhuma validação orientada pelo usuário.

Use as configurações ilustradas abaixo para selecionar qual LLM você deseja usar para a extração generativa.

O CommPath LLM está habilitado por padrão. Para ativar a Visualização LLM, são necessários os alternâncias da imagem a seguir.



Se a alternância do modelo Usar visualização generativa estiver desativada, significa que você está usando o CommPath LLM.

Ter as alternâncias Usar funcionalidades de IA generativas e Usar visualização de extração generativa ativadas significa que a plataforma usa o endpoint UiPath® Azure OpenAI no processo de extração.

Abordagem recomendada

  1. Comece a treinar suas extrações com o CommPath LLM.
  2. Se as extrações extrair corretamente, continue a treinar as extrações usando o CommPath LLM. Se não, devido ao grande número de campos ou grandes tabelas em cada mensagem, mude para o Preview LLM. ​

    Para determinar se suas extrações prevêem corretamente, verifique as estatísticas de validação na guia Extração generativa , na página Validação . Se a precisão e recall das extrações forem adequadas para o seu caso de uso, continue a usar o CommPath LLM.

    Se algum ponto de dados não for extraído conforme o esperado com o CommPath LLM:

    1. Fixe a versão do modelo atual acessando modelos e selecione fixar na versão do modelo mais recente.
    2. Entre em contato com seu representante da UiPath®, anotando a versão do modelo em que as extrações não estavam com um bom desempenho. Seu representante da UiPath® trabalhará diretamente com a equipe de produtos do Communications Mining para investigar e implementar melhorias.​
  3. Se você usar o LLM de Visualização, continue a treinar seu modelo da mesma maneira que você treinou o LLM de CommPath. Examine isso e forneça exemplos corretos para cada uma de suas extrações.
  • CommPath LLM
  • Visualização do LLM​
  • Abordagem recomendada

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo White
Confiança e segurança
© 2005-2024 UiPath. Todos os direitos reservados.