- Notas de versão
- Antes de começar
- Introdução
- Integrações
- Como trabalhar com aplicativos de processo
- Como trabalhar com painéis e gráficos
- Como trabalhar com gráficos de processo
- Trabalhando com Descubra modelos de processo e Importar modelos BPMN
- Showing or hiding the menu
- Informações de contexto
- Exportar
- Filtros
- Envio de ideias de automação ao UiPath® Automation Hub
- Tags
- Datas de conclusão
- Comparar
- Verificação de conformidade
- Análise de causa raiz
- Simulação de Potencial de Automação
- Iniciar um projeto do Task Mining a partir do Process Mining
- Triggering an automation from a process app
- Exibição de dados do processo
- Criação de aplicativos
- Carregamento de dados
- Personalização de aplicativos de processo
- Introdução aos painéis
- Criação de painéis
- Painéis
- Gerenciador de automação
- Input data
- Definição de novas tabelas de entrada
- Adicionando campos
- Adição de tabelas
- Requisitos do modelo de dados
- Exibição e edição do modelo de dados
- Exportando e importando transformações
- Visualização dos logs de transformações
- Edição e teste de transformações de dados
- Structure of transformations
- Mesclando logs de evento
- Tips for writing SQL
- Gerenciador de processos
- Publicação de aplicativos de processos
- Modelos de apps
- Recursos adicionais
Process Mining
Recursos de desempenho
O tempo de resposta dos aplicativos Process Mining é determinado por muitos fatores. No entanto, em geral, o seguinte princípio vale:
-
Quanto menos dados, mais rapidez
No Process Mining, existem duas áreas com características de desempenho distintas: execuções de dados para carregar os dados, e painéis para visualizar os dados.
No Process Mining, cada aplicativo de processo tem um estágio de desenvolvimento e um estágio publicado. Se o aplicativo desejado exigir um conjunto de dados grande, é recomendável usar um conjunto de dados menor (<10 milhões de registros) para desenvolver as transformações de dados e painéis.
O conjunto de dados de desenvolvimento é usado para testar as transformações de dados. Ele não afeta os dados exibidos nos painéis do app de processoss publicado. Quando seu app estiver pronto para ser usado por usuários de negócios, você poderá publicar o app e ingerir novos dados para uso no app de processos publicado.
Um cenário comum é usar um conjunto de dados com um prazo menor para o desenvolvimento, por exemplo, apenas 100 mil eventos em uma janela de tempo de 2 semanas. Ao publicar, um conjunto de dados maior, por exemplo, abrangendo 12 meses, pode ser usado.
As execuções de dados no Process Mining são disparadas nos seguintes casos de uso:
-
Criação de um aplicativo
-
Carregamento de dados
-
Disparando Aplicar a painéis , Executar todos ou Executar arquivo no editor de transformações de dados .
-
Publicar um aplicativo que tenha alterações nas transformações de dados.
Uma execução de dados normalmente consiste nas seguintes etapas, cada uma com características de desempenho diferentes:
Ao carregar dados, o tamanho geral dos dados carregados no disco é o fator mais importante para a velocidade. Consulte Carregamento de dados. Os fatores que afetam o desempenho são:
-
O número de tabelas;
-
O número de registros nas tabelas;
-
O número de colunas nas tabelas;
-
Os dados nas tabelas. Por exemplo, uma coluna de descrição com várias linhas é mais lenta do que uma coluna booleana simples.
As transformações de dados alteram os dados de entrada para o modelo de dados que é necessário para os painéis. Consulte Transformações de dados.
.sql
nas transformações executa uma consulta SQL adicional. Os fatores a seguir afetam a velocidade das transformações de dados:
-
O número de arquivos
.sql
; -
O número de registros em cada tabela;
-
O número de colunas em cada tabela;
-
A complexidade da consulta SQL: condições de associação, número de Expressões de tabela comuns (CTEs) e expressões na consulta SQL.
O modelo de dados determina o conjunto de tabelas que ficam expostas aos painéis. Durante uma execução de dados, testes são executados para validar a estrutura dessas tabelas no modelo de dados. No entanto, a parte mais demorada são os pré-calculações que são feitas para acelerar a exibição de painéis posteriormente.
A velocidade geral dessa etapa é determinada por:
-
O número de tabelas no modelo de dados;
-
A relação entre as tabelas de saída;
-
O número de colunas nas tabelas de saída
-
O número de registros nas tabelas de saída.
A última parte de uma execução de dados é a execução de pré-computações para acelerar o gráfico do processo.
-
O número de variantes;
-
O número de eventos.
Se você usar um modelo BPMN de importação para exibir o processo, a complexidade do modelo BPMN também afeta o desempenho. Quanto mais atividades e bordas houver, mais lentas serão as computações.
Reduza o volume de dados
Para melhorar a velocidade do upload de dados, reduza o tamanho de seus dados para o mínimo necessário. Esse aviso é válido para todos os estágios dos dados:
-
Extraia apenas os dados de entrada necessários;
-
Transforme apenas os dados necessários;
-
Só adicione tabelas ao modelo de dados se for necessário para a análise de dados.
A maneira mais fácil de fazer isso é geralmente diminuir a janela de tempo usada para extração de dados, pois isso reduz o número de registros para a maioria das tabelas de dados da entrada para a transformação para a saída.
Quanto mais cedo você reduzir o tamanho dos dados, mais eficiente:
-
Filtre os arquivos
sql
o mais cedo possível em suas transformações de dados ou, se possível, na sua extração de dados. -
Para o desenvolvimento, normalmente um conjunto de dados menor é usado. Para acelerar as consultas de teste, consulte Desenvolvimento versus produção de dados.
Reduzir tabelas e colunas de dados
Além disso, tome cuidado para carregar apenas colunas que sejam realmente usadas. Quanto mais cedo no processo eles puderem ser deixados de fora, melhor.
-
Reduza o conjunto de colunas de dados extraídos para o necessário.
-
Remova qualquer arquivo
.sql
que não seja necessário para o modelo de dados de saída. -
Remova quaisquer colunas de dados desnecessárias nas consultas.
-
Remova quaisquer atividades desnecessárias do conjunto de eventos.
Reduzir complexidade
Quanto mais complicados forem os cálculos nas transformações de dados e o modelo de dados, mais lenta será a execução de dados. Reduzir a complexidade pode ser um desafio, mas pode ter um grande impacto no tempo de execução dos dados.
-
Reduza a complexidade das instruções SQL quando possível, consulte Dicas para escrever SQL .
-
Reduza os dados no modelo de dados para os dados necessários para a análise de dados. Quaisquer tabelas ou colunas que não são necessárias para a análise de dados devem ser removidas.
-
Se você estiver usando um modelo BPMN de importação para exibir o processo, manter o número de atividades e bordas baixo melhorará o desempenho.
Em geral, os tempos de carregamento do painel são afetados pela quantidade de dados usados pelos gráficos e pelas métricas que são calculadas.
Sempre que um painel é carregado no Process Mining, cada gráfico é calculado em paralelo. A velocidade do carregamento de um gráfico é afetada pelos seguintes fatores:
-
O número de métricas exibidas no gráfico.
-
Para cada métrica, o tamanho da junção necessário para calcular a métrica é importante. Isso é determinado pela tabela usada para agrupar um gráfico, combinada com a tabela da métrica.
-
A complexidade da relação entre essas duas tabelas.
-
A distância entre essas duas tabelas no modelo de dados.
-
-
O tipo de dados dos campos usados. Campos numéricos são mais rápidos que campos de texto.
-
A complexidade das métricas em si. As métricas podem ser baseadas em vários campos.
Remover qualquer métrica que não seja necessária para um gráfico acelerará o tempo de carregamento.
-
Considere os KPIs mostrados na barra superior;
-
Considere as métricas mostradas nos seus gráficos. Se um gráfico mostrar várias métricas, cada uma delas adiciona um tempo de cálculo adicional.
Simplificar a definição de métricas também pode acelerar o tempo de carregamento do gráfico.
-
Considere se você pode simplificar a definição de métricas;
-
Considere pré-computar partes da métrica nas transformações de dados. Qualquer cálculo estático que já tenha sido feito antes, não precisa ser feito no runtime.