process-mining
latest
false
Importante :
Este contenido se ha localizado parcialmente a partir de un sistema de traducción automática.
Process Mining
Automation CloudAutomation Cloud Public SectorAutomation SuiteStandalone
Last updated 15 de oct. de 2024

Configuración de DataBridgeAgent

Introducción

En esta página se describe cómo configurar DataBridgeAgent para cargar datos para una aplicación de proceso en Process Mining.

Configuración de DataBridgeAgent

Sigue estos pasos para configurar DataBridgeAgent.

  1. Descarga DataBridgeAgent. Consulta Cargar datos mediante DataBridgeAgent.
  2. En el servidor, crea una carpeta para el DataBridgeAgent. Por ejemplo, D:\processmining\P2P_data\.
Nota: en el resto de esta guía, nos referiremos a este directorio como <EXTRACTORDIR>.
  1. Coloca el paquete de instalación en la carpeta <EXTRACTORDIR>.
    • Haz clic derecho en el paquete de instalación.
    • Selecciona Extraer todo....
  2. Haz clic con el botón derecho en el archivo <EXTRACTORDIR>\datarun.json y selecciona Abrir.
  3. Introduce un valor para los siguientes ajustes:

    • azureURL
    • connectorWorkspace
    • connectorModuleCode
    • Tipo de entrada
    • Utilizar el almacén de credenciales

Parámetros genéricos

A continuación se muestra un resumen de los parámetros genéricos para DataBridgeAgent.

Parámetro

Descripción

azureURL

La URL de SAS del almacenamiento blob de Azure en el que deben cargarse los datos extraídos. Consulta Recuperar las credenciales para el almacenamiento de blobs de Azure

endOfUploadApiUrl

La API que se llama para iniciar el procesamiento de datos en Process Mining, una vez que se han cargado todos los datos.
Nota:
El endOfUploadApiUrl solo es necesario si desea cargar los archivos de datos mediante DataBridgeAgent. Si desea cargar los archivos mediante un extractor, configure la URL de final de carga en el trabajo de extracción.

connectorWorkspace
El nombre del espacio de trabajo del conector utilizado para cargar los datos y crear el conjunto de datos.

connectorModuleCode

El código de módulo del conector utilizado para cargar los datos y crear el conjunto de datos.

Tipo de entrada

Puede ser cualquiera:

SAP ver parámetros de SAP
CSV ver parámetros CSV
ODBC ver parámetros ODBC
Nota: según el tipo de entrada preferido, es necesario introducir los ajustes en la sección correspondiente.

Utilizar el almacén de credenciales

Indica si se utiliza o no un almacén de credenciales para el almacenamiento de contraseñas.

Nota: si se establece en true se especifica el identificador de la contraseña en el campo Contraseña SAP o Contraseña ODBC.

Divisa de referencia

La moneda en la que se muestran los valores relacionados con el precio.

Tipo de cambio

El tipo de cambio que se utiliza para la conversión de divisas.

Idioma

El idioma en el que se extraen los datos del sistema de origen.

Fecha de inicio de extracción

La fecha de inicio del periodo de extracción de los datos.

Nota: en los casos en que solo se necesita un subconjunto de datos, se recomienda limitar la cantidad de datos cargados, ya que esto puede mejorar los tiempos de carga.

Fecha de fin de extracción

La fecha de finalización del periodo de extracción de los datos.

Nota: en los casos en que solo se necesita un subconjunto de datos, se recomienda limitar la cantidad de datos cargados, ya que esto puede mejorar los tiempos de carga.

Parámetros de SAP

A continuación se muestra un resumen de los parámetros que se pueden utilizar para las fuentes de datos de SAP.

Parámetro

Descripción

Host de SAP

El nombre del host o la dirección IP del servidor de aplicaciones SAP.

Número de sistema SAP

El número de dos dígitos entre 00 y 99 que identifica la instancia designada.

Nombre de usuario de SAP

El nombre de usuario de la cuenta que se está utilizando para iniciar sesión en la instancia de SAP.

Contraseña de SAP

La contraseña del usuario anterior.

Nota: si utilizas un almacén de credenciales, debes introducir el identificador de la contraseña del almacén de credenciales, en lugar de la contraseña.

Cliente de SAP

El cliente que se está utilizando.

Parámetros de CSV

A continuación se ofrece un resumen de los parámetros que se pueden utilizar para las fuentes de datos CSV.

Configuración SAP

Descripción

Ruta de datos de CSV

Ruta de datos en Server Dara que apunta al lugar donde se almacenan los archivos .csv. Por ejemplo P2P/, si todos los archivos se pueden encontrar en la carpeta denominada P2P.

Sufijo de CSV

Una expresión regular que contiene la extensión del archivo a leer. Puede contener un sufijo de hasta 2 dígitos que se añaden al nombre de la tabla.

Delimitador CSV

El carácter delimitador que se utiliza para separar los campos.

CSV Comillas

El símbolo de comillas que se utiliza para identificar los campos que están entre comillas.

CSV Tiene encabezado

Indica si la primera línea del archivo .CSV es una línea de encabezado.

Parámetros de ODBC

A continuación se muestra un resumen de los parámetros que se pueden utilizar para las fuentes de datos ODBC.

Parámetro

Descripción

Controlador de ODBC

El nombre del controlador de ODBC a utilizar para esta conexión.

Nombre de usuario de ODBC

Nombre de usuario que se utilizará para conectarse a la fuente de datos externa.

Contraseña de ODBC

Contraseña que se utilizará para conectarse a la fuente de datos externa.

Nota: si utilizas un almacén de credenciales, debes introducir el identificador de la contraseña del almacén de credenciales, en lugar de la contraseña.

Parámetros de conexión de ODBC

Cualquier otro parámetro se pasa como se especifica al controlador ODBC. Usa el formato param1=value1 (;param2=value2)

Creating the dataset and upload it for use in Process Mining

Para cargar los datos y utilizarlos a Azure, debes ejecutar el EXTRACTORDIR\datarun.batarchivo .

El tiempo necesario para esta tarea dependerá en gran medida de los volúmenes de datos cargados.

La salida se carga en el almacenamiento de blobs que activa el procesamiento en Snowflake.

Iniciar el archivo manualmente

Sigue este paso para iniciar la ejecución de los datos.

  1. Haz doble clic en el archivo EXTRACTORDIR\datarun.bat para iniciar la ejecución de los datos.

Programar una tarea para la ejecución de datos

En lugar de ejecutar el archivo manualmente, puedes utilizar el Programador de tareas de Windows para programar una tarea que ejecute el script por lotes para la actualización automática de datos.

Nota: Se recomienda seleccionar la cuenta de usuario del SISTEMA local para ejecutar la tarea y seleccionar la opción Ejecutar con la máxima prioridad en la ventana Crear tarea al crear la tarea en el Programador de Windows.

La salida se carga en el almacenamiento de blobs que activa el procesamiento en Snowflake.

Importante: si añades un intervalo para el que no hay datos disponibles, los paneles mostrarán un mensaje de error.

Solución de problemas

La ejecución de datos también crea un archivo de registro que puede ayudar en caso de resultados inesperados o si la carga de datos con DataBridgeAgent falla. El archivo <EXTRACTORDIR>\datarun.txt contiene los registros de la última ejecución de datos.

¿Te ha resultado útil esta página?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Uipath Logo White
Confianza y seguridad
© 2005-2024 UiPath. Todos los derechos reservados.