process-mining
latest
false
重要 :
请注意此内容已使用机器翻译进行了部分本地化。 新发布内容的本地化可能需要 1-2 周的时间才能完成。
UiPath logo, featuring letters U and I in white

Process Mining

Automation CloudAutomation Cloud Public SectorAutomation SuiteStandalone
上次更新日期 2024年12月3日

配置数据桥代理

简介

本页介绍如何配置 DataBridgeAgent 以在 Process Mining中为流程应用程序加载数据。

配置数据桥代理

请按照以下步骤配置“数据桥代理”。

  1. 下载“数据桥代理” 。 请参阅使用数据桥代理加载数据
  2. 在服务器上,为“数据桥代理”创建一个文件夹。例如 D:\processmining\P2P_data\
注意:在本指南的剩余部分,我们会将此目录称为 <EXTRACTORDIR>
  1. 将安装包放置在 <EXTRACTORDIR> 文件夹中。
    • 右键单击安装包。
    • 选择“提取全部…”
  2. 右键单击文件 <EXTRACTORDIR>\datarun.json,然后选择“打开”。
  3. 输入以下设置的值:

    • Azure URL
    • 连接器工作区
    • 连接器模块代码
    • 输入类型
    • 使用凭据存储

通用参数

以下是“数据桥代理”通用参数的概述。

参数

描述

Azure URL

需要将提取的数据上传到的 Azure Blob 存储的 SAS URL。 请参阅检索 Azure Blob 存储的凭据

endOfUploadApiUrl

上传所有数据后,在 Process Mining 中启动数据处理时调用的 API。
备注:
仅当您要使用数据桥代理上传数据文件时,才需要 endOfUploadApiUrl 。 如果要使用提取程序上传文件,请在提取作业中配置“上传结束 URL”。

连接器工作区
用于加载数据和创建数据集的连接器的工作区名称。

连接器模块代码

用于加载数据和创建数据集的连接器的模块代码。

输入类型

可以是:

SAP 请参阅 SAP 参数
CSV请参阅CSV 参数
ODBC请参阅ODBC 参数
注意:根据首选输入类型,您必须在相应部分输入设置。

使用凭据存储

指示是否将凭据存储用于密码存储。

注意:如果设置为 true,则在“SAP 密码”或“ODBC 密码”字段中指定密码标识符。

报告币种

显示价格相关值的币种。

汇率类型

用于货币转换的汇率类型。

语言

从源系统中提取数据所用的语言。

提取开始日期

数据提取周期的开始日期。

注意:如果只需要一部分数据,建议限制加载的数据量,这可能会缩短加载时间。

提取结束日期

数据提取周期的结束日期。

注意:如果只需要一部分数据,建议限制加载的数据量,这可能会缩短加载时间。

SAP 参数

下面概述了可用于 SAP 数据源的参数。

参数

描述

SAP 主机

SAP 应用程序服务器的主机名或 IP 地址。

SAP 系统编号

用于标识指定实例的介于 00 和 99 之间的两位数字。

SAP 用户名

用于登录 SAP 实例的帐户的用户名。

SAP 密码

上方用户的密码。

注意:如果使用凭据存储,则必须输入凭据存储中的密码标识符,而不是密码。

SAP 客户端

正在使用的客户端。

CSV 参数

下面概述了可用于 CSV 数据源的参数。

SAP 设置

描述

CSV 数据路径

“服务器数据”中的数据路径,指向存储 .csv 文件的位置。例如 P2P/,如果可以在名为 P2P 的文件夹中找到所有文件。

CSV 后缀

包含要读入的文件的文件扩展名的正则表达式。最多可包含 2 位数字的后缀,这些后缀将添加到表格名称中。

CSV 分隔符

用于分隔字段的分隔符。

CSV 引号字符

用于标识用引号括起来的字段的引号字符。

CSV 包含标头

指明 .CSV 文件的第一行是否为标头行。

ODBC 参数

下面概述了可用于 ODBC 数据源的参数。

参数

描述

ODBC 驱动程序

用于此连接的 ODBC 驱动程序的名称。

ODBC 用户名

用于连接到外部数据源的用户名。

ODBC 密码

用于连接到外部数据源的密码。

注意:如果使用凭据存储,则必须输入凭据存储中的密码标识符,而不是密码。

ODBC 连接参数

任何其他参数都将按照指定的方式传递给 ODBC 驱动程序。其格式为 param1=value1 (;param2=value2)

Creating the dataset and upload it for use in Process Mining

要加载数据并将其上传到 Azure 以在 Process Mining 中使用,您必须运行 EXTRACTORDIR\datarun.bat 文件。

此任务花费的时间在很大程度上取决于加载的数据量。

输出将上传到 Blob 存储,这将触发在 Snowflake 中的处理。

手动启动文件

请按照此步骤开始数据运行。

  1. 双击 EXTRACTORDIR\datarun.bat 文件以启动数据运行。

为数据运行计划任务

除了手动运行文件外,您还可以使用 Windows 任务计划程序来计划任务,该任务会运行批处理脚本以实现自动数据刷新。

注意:在 Windows 计划程序中创建任务时,建议选择本地系统用户帐户来运行任务,并在“创建任务”窗口中选择“以最高优先级运行”。

输出将上传到 Blob 存储,这将触发在 Snowflake 中的处理。

注意:如果您添加没有可用数据的间隔,仪表板将显示错误消息。

故障排除

数据运行还会创建一个日志文件,以便在出现意外结果或使用“数据桥代理”上传数据失败时提供帮助。文件 <EXTRACTORDIR>\datarun.txt 包含上次数据运行的日志。

此页面有帮助吗?

获取您需要的帮助
了解 RPA - 自动化课程
UiPath Community 论坛
Uipath Logo White
信任与安全
© 2005-2024 UiPath。保留所有权利。