- Notas relacionadas
- Antes de empezar
- Primeros pasos
- Integraciones
- Trabajar con apps de proceso
- Trabajar con paneles y diagramas
- Trabajar con diagramas de proceso
- Trabajar con modelos de proceso Descubrir e Importar modelos BPMN
- Showing or hiding the menu
- Información del contexto
- Exportar
- Filtros
- Envío de ideas de automatización a UiPath® Automation Hub
- Etiquetas
- Fechas límite
- Comparar
- Comprobación de conformidad
- Análisis de causa raíz
- Simular el potencial de automatización
- Triggering an automation from a process app
- Ver datos del proceso
- Creación de aplicaciones
- Cargar datos
- Personalizar apps de proceso
- Plantillas de la aplicación
- Recursos adicionales
- Etiquetas y fechas de vencimiento listas para usar
- Editar transformaciones de datos en un entorno local
- Setting up a local test environment
- Designing an event log
- Ampliar la herramienta de extracción de SAP Ariba
- Características de rendimiento
Características de rendimiento
El tiempo de respuesta de las aplicaciones de Process Mining está determinado por muchos factores. Sin embargo, en general se aplica el siguiente principio:
-
Menos datos equivale a una ejecución más rápida
En Process Mining, hay dos áreas que tienen diferentes características de rendimiento: ejecuciones de datos para cargar los datos y paneles para ver los datos.
En Process Mining, cada aplicación de proceso tiene una etapa de desarrollo y una etapa publicada. Si la aplicación deseada requiere un conjunto de datos grande, se recomienda utilizar un conjunto de datos más pequeño (<10 millones de registros) para desarrollar las transformaciones de datos y los paneles.
El conjunto de datos de desarrollo se utiliza para probar las transformaciones de datos. No afecta a los datos mostrados en los paneles de la aplicación de proceso publicada. Una vez que tu aplicación esté lista para ser utilizada por los usuarios empresariales, puedes publicar la aplicación e introducir nuevos datos para su uso en la aplicación de proceso publicada.
Un escenario común es utilizar un conjunto de datos con un marco de tiempo más corto para el desarrollo, por ejemplo, solo 100 000 eventos en una ventana de tiempo de 2 semanas. Al publicar, se puede utilizar un conjunto de datos más grande, por ejemplo, que abarque 12 meses.
Las ejecuciones de datos en Process Mining se desencadenan en los siguientes casos de uso:
-
Crear una aplicación
-
Cargar datos
-
Desencadenar Aplicar a paneles , Ejecutar todo o Ejecutar archivo en el editor de Transformaciones de datos .
-
Publicar una aplicación que tenga cambios en las transformaciones de datos.
Una ejecución de datos suele constar de los siguientes pasos, cada uno de los cuales tiene diferentes características de rendimiento:
Al cargar datos, el tamaño total de los datos cargados en el disco es el factor más importante para la velocidad. Consulta Cargar datos. Los factores que afectan al rendimiento son:
-
El número de tablas;
-
El número de registros en las tablas;
-
El número de columnas en las tablas;
-
Los datos de las tablas. Por ejemplo, una columna de descripción de varias líneas es más lenta que una columna booleana simple.
Las transformaciones de datos cambian los datos de entrada en el modelo de datos necesario para los paneles. Consulta Transformaciones de datos.
.sql
de las transformaciones ejecuta una consulta SQL adicional. Los siguientes factores afectan a la velocidad de las transformaciones de datos:
-
El número de archivos
.sql
; -
El número de registros en cada tabla;
-
El número de columnas de cada tabla;
-
La complejidad de la consulta SQL: condiciones de unión, número de Expresiones de tabla comunes (CTE), expresiones en la consulta SQL.
El modelo de datos determina el conjunto de tablas que se exponen a los paneles. Durante una ejecución de datos, se ejecutan pruebas para validar la estructura de estas tablas en el modelo de datos. Sin embargo, la parte que más tiempo consume son los cálculos previos que se realizan para acelerar la visualización de los paneles más adelante.
La velocidad general de este paso está determinada por:
-
El número de tablas en el modelo de datos;
-
La relación entre las tablas de salida;
-
El número de columnas en las tablas de salida
-
El número de registros en las tablas de salida.
La última parte de una ejecución de datos es ejecutar cálculos previos para acelerar el gráfico de proceso.
-
El número de variantes;
-
El número de los eventos.
Si utilizas un modelo BPMN de importación para mostrar el proceso, la complejidad del modelo BPMN también afecta al rendimiento. Cuantas más actividades y bordes haya, más lentos serán los cálculos.
Reducir el volumen de datos
Para mejorar la velocidad de carga de datos, reduce el tamaño de tus datos al mínimo necesario. Este consejo es válido para todas las etapas de los datos:
-
Extraiga solo los datos de entrada necesarios;
-
Transforme solo los datos necesarios;
-
Solo añade tablas al modelo de datos si es necesario para el análisis de datos.
La forma más fácil de hacerlo suele ser disminuir la ventana de tiempo utilizada para la extracción de datos, ya que eso reduce el número de registros para la mayoría de las tablas de datos desde la entrada hasta la transformación y la salida.
Cuanto antes puedas reducir el tamaño de los datos, más eficiente será:
-
Filtra los archivos
sql
lo antes posible en tus transformaciones de datos o, si es posible, en tu extracción de datos. -
Para el desarrollo, normalmente se utiliza un conjunto de datos más pequeño, para acelerar las consultas de prueba, consulta Datos de desarrollo frente a datos de producción.
Reducir tablas y columnas de datos
Además, tenga cuidado de cargar solo las columnas que se utilizan realmente. Cuanto antes se puedan omitir en el proceso, mejor.
-
Reduce el conjunto de columnas de datos extraídos a lo necesario.
-
Elimina cualquier archivo
.sql
que no sea necesario para el modelo de datos de salida. -
Elimina cualquier columna de datos innecesaria en las consultas.
-
Elimina cualquier actividad innecesaria del conjunto de eventos.
Reducir la complejidad
Cuanto más complicados sean los cálculos en las transformaciones de datos y el modelo de datos, más lentas serán las ejecuciones de datos. Reducir la complejidad puede ser un desafío, pero puede tener un gran impacto en el tiempo de ejecución de los datos.
-
Reduzca la complejidad de las sentencias SQL siempre que sea posible; consulte Consejos para escribir SQL .
-
Reduce los datos del modelo de datos a los datos necesarios para el análisis de datos. Debe eliminarse cualquier tabla o columna que no sea necesaria para el análisis de datos.
-
Si utilizas un modelo BPMN de importación para mostrar el proceso, mantener bajo el número de actividades y aristas mejorará el rendimiento.
En general, los tiempos de carga del panel se ven afectados por la cantidad de datos utilizados por los gráficos y las métricas que se calculan.
Cada vez que se carga un panel en Process Mining, cada gráfico se calcula en paralelo. La velocidad de carga de un gráfico se ve afectada por los siguientes factores:
-
El número de métricas mostradas en el gráfico.
-
Para cada métrica, el tamaño de unión requerido para calcular la métrica es importante. Esto viene determinado por la tabla utilizada para agrupar un gráfico, combinada con la tabla de la métrica.
-
La complejidad de la relación entre esas dos tablas.
-
La distancia entre estas dos tablas en el modelo de datos.
-
-
El tipo de datos de los campos utilizados. Los campos numéricos son más rápidos que los campos de texto.
-
La complejidad de las métricas en sí. Las métricas pueden basarse en varios campos.
Eliminar cualquier métrica que no sea necesaria para un gráfico acelerará el tiempo de carga.
-
Ten en cuenta los KPI que se muestran en la barra superior;
-
Ten en cuenta las métricas que se muestran en tus gráficos. Si un gráfico muestra varias métricas, cada una de ellas añade tiempo de cálculo adicional.
Simplificar la definición de métricas también puede acelerar el tiempo de carga del gráfico.
-
Considere si puede simplificar la definición de métricas;
-
Considera precalcular partes de la métrica en las transformaciones de datos. Cualquier cálculo estático que ya se haya realizado antes, no es necesario hacerlo en tiempo de ejecución.