- Notas relacionadas
- Antes de empezar
- Primeros pasos
- Integraciones
- Trabajar con apps de proceso
- Trabajar con paneles y diagramas
- Trabajar con diagramas de proceso
- Trabajar con modelos de proceso Descubrir e Importar modelos BPMN
- Showing or hiding the menu
- Información del contexto
- Exportar
- Filtros
- Envío de ideas de automatización a UiPath® Automation Hub
- Etiquetas
- Fechas límite
- Comparar
- Comprobación de conformidad
- Análisis de causa raíz
- Simular el potencial de automatización
- Iniciar un proyecto de Task Mining desde Process Mining
- Triggering an automation from a process app
- Ver datos del proceso
- Creación de aplicaciones
- Cargar datos
- Personalizar apps de proceso
- Publicar aplicaciones de proceso
- Plantillas de la aplicación
- Recursos adicionales
Configuración de DataBridgeAgent
En esta página se describe cómo configurar DataBridgeAgent para cargar datos para una aplicación de proceso en Process Mining.
Sigue estos pasos para configurar DataBridgeAgent.
- Descarga DataBridgeAgent. Consulta Cargar datos mediante DataBridgeAgent.
- En el servidor, crea una carpeta para el DataBridgeAgent. Por ejemplo,
D:\processmining\P2P_data\
.
<EXTRACTORDIR>
.
-
Coloca el paquete de instalación en la carpeta
<EXTRACTORDIR>
.- Haz clic derecho en el paquete de instalación.
- Selecciona Extraer todo....
- Haz clic con el botón derecho en el archivo
<EXTRACTORDIR>\datarun.json
y selecciona Abrir. -
Introduce un valor para los siguientes ajustes:
azureURL
connectorWorkspace
connectorModuleCode
Tipo de entrada
Utilizar el almacén de credenciales
A continuación se muestra un resumen de los parámetros genéricos para DataBridgeAgent.
Parámetro |
Descripción |
---|---|
azureURL |
La URL de SAS del almacenamiento blob de Azure en el que deben cargarse los datos extraídos. Consulta Recuperar las credenciales para el almacenamiento de blobs de Azure |
endOfUploadApiUrl | La API que se llama para iniciar el procesamiento de datos en Process Mining, una vez que se han cargado todos los datos.
Nota:
El
endOfUploadApiUrl solo es necesario si desea cargar los archivos de datos mediante DataBridgeAgent. Si desea cargar los archivos mediante un extractor, configure la URL de final de carga en el trabajo de extracción.
|
connectorWorkspace
| El nombre del espacio de trabajo del conector utilizado para cargar los datos y crear el conjunto de datos. |
connectorModuleCode | El código de módulo del conector utilizado para cargar los datos y crear el conjunto de datos. |
Tipo de entrada |
Puede ser cualquiera: •
SAP ver parámetros de SAP•
CSV ver parámetros CSV•
ODBC ver parámetros ODBCNota: según el tipo de entrada preferido, es necesario introducir los ajustes en la sección correspondiente.
|
Utilizar el almacén de credenciales |
Indica si se utiliza o no un almacén de credenciales para el almacenamiento de contraseñas. Nota: si se establece en
true se especifica el identificador de la contraseña en el campo Contraseña SAP o Contraseña ODBC.
|
Divisa de referencia |
La moneda en la que se muestran los valores relacionados con el precio. |
Tipo de cambio |
El tipo de cambio que se utiliza para la conversión de divisas. |
Idioma |
El idioma en el que se extraen los datos del sistema de origen. |
Fecha de inicio de extracción |
La fecha de inicio del periodo de extracción de los datos. Nota: en los casos en que solo se necesita un subconjunto de datos, se recomienda limitar la cantidad de datos cargados, ya que esto puede mejorar los tiempos de carga.
|
Fecha de fin de extracción |
La fecha de finalización del periodo de extracción de los datos. Nota: en los casos en que solo se necesita un subconjunto de datos, se recomienda limitar la cantidad de datos cargados, ya que esto puede mejorar los tiempos de carga.
|
A continuación se muestra un resumen de los parámetros que se pueden utilizar para las fuentes de datos de SAP.
Parámetro |
Descripción |
---|---|
Host de SAP |
El nombre del host o la dirección IP del servidor de aplicaciones SAP. |
Número de sistema SAP |
El número de dos dígitos entre 00 y 99 que identifica la instancia designada. |
Nombre de usuario de SAP |
El nombre de usuario de la cuenta que se está utilizando para iniciar sesión en la instancia de SAP. |
Contraseña de SAP |
La contraseña del usuario anterior. Nota: si utilizas un almacén de credenciales, debes introducir el identificador de la contraseña del almacén de credenciales, en lugar de la contraseña.
|
Cliente de SAP |
El cliente que se está utilizando. |
A continuación se ofrece un resumen de los parámetros que se pueden utilizar para las fuentes de datos CSV.
Configuración SAP |
Descripción |
---|---|
Ruta de datos de CSV |
Ruta de datos en Server Dara que apunta al lugar donde se almacenan los archivos
.csv . Por ejemplo P2P/ , si todos los archivos se pueden encontrar en la carpeta denominada P2P .
|
Sufijo de CSV |
Una expresión regular que contiene la extensión del archivo a leer. Puede contener un sufijo de hasta 2 dígitos que se añaden al nombre de la tabla. |
Delimitador CSV |
El carácter delimitador que se utiliza para separar los campos. |
CSV Comillas |
El símbolo de comillas que se utiliza para identificar los campos que están entre comillas. |
CSV Tiene encabezado |
Indica si la primera línea del archivo
.CSV es una línea de encabezado.
|
A continuación se muestra un resumen de los parámetros que se pueden utilizar para las fuentes de datos ODBC.
Parámetro |
Descripción |
---|---|
Controlador de ODBC |
El nombre del controlador de ODBC a utilizar para esta conexión. |
Nombre de usuario de ODBC |
Nombre de usuario que se utilizará para conectarse a la fuente de datos externa. |
Contraseña de ODBC |
Contraseña que se utilizará para conectarse a la fuente de datos externa. Nota: si utilizas un almacén de credenciales, debes introducir el identificador de la contraseña del almacén de credenciales, en lugar de la contraseña.
|
Parámetros de conexión de ODBC |
Cualquier otro parámetro se pasa como se especifica al controlador ODBC. Usa el formato
param1=value1 (;param2=value2) |
EXTRACTORDIR\datarun.bat
archivo .
El tiempo necesario para esta tarea dependerá en gran medida de los volúmenes de datos cargados.
La salida se carga en el almacenamiento de blobs que activa el procesamiento en Snowflake.
Sigue este paso para iniciar la ejecución de los datos.
- Haz doble clic en el archivo
EXTRACTORDIR\datarun.bat
para iniciar la ejecución de los datos.
En lugar de ejecutar el archivo manualmente, puedes utilizar el Programador de tareas de Windows para programar una tarea que ejecute el script por lotes para la actualización automática de datos.
La salida se carga en el almacenamiento de blobs que activa el procesamiento en Snowflake.