ai-center
2020.10
false
UiPath logo, featuring letters U and I in white

AI Center

Automation CloudAutomation SuiteStandalone
上次更新日期 2024年6月6日

AI Fabric 单节点

重要提示: 在继续之前,请确保您满足 此处详述的要求

总的来说,安装 AI Fabric 时需要执行以下步骤:

步骤活动时间等待时间
1. 配置 AIF 计算机少于 5 分钟--
2. 配置数据库少于 1 分钟--
3. 配置 Orchestrator少于 5 分钟--
4. 运行 AI Fabric 基础架构安装程序少于 1 分钟约 20 分钟
5. 运行 AI Fabric 应用程序安装程序少于 5 分钟约 20 分钟
6. 验证安装约 5 分钟--

网络配置

  • 将在其上安装 AI Fabric 的 Linux 计算机必须能够连接到 Orchestrator 计算机(域和端口)。
  • 将在其上安装 AI Fabric 的 Linux 计算机必须能够连接到 SQL Server(域/IP 和端口)。
  • 要使用 AI Fabric 的机器人/Studio 需要连接到 AI Fabric Linux 计算机。

对于外围 Document Understanding 组件(Data Manager 和 OCR 引擎):

  • Data Manager 需要访问 AI Fabric on prem:<port_number> 或公共 SaaS 端点,例如 https://invoices.uipath.com,以防需要预标签(预标签是可选的)。
  • Data Manager 需要访问 OCR 引擎 <端口号>。 OCR 引擎可能是内部部署的 UiPath Document OCR、内部部署的 Omnipage OCR、Google Cloud Vision OCR、Microsoft Read Azure 和内部部署的 Microsoft Read。
  • 机器人需要访问 OCR:<端口号>。 OCR 选项与上述相同,但 Omnipage 除外,后者在机器人中直接作为活动包提供。

连接要求 - 在线安装

AI Fabric 在线安装是指一种内部部署安装,可从互联网下载 AI Fabric 应用程序和所有相关工件(例如机器学习模型)。

安装程序连接到的端点

AI Fabric 安装程序会下载容器映像和机器学习模型,以使用即用型机器学习(包括 Document Understanding 模型)填充 AI Fabric 实例。 因此,在安装时,Linux 计算机需要通过 https(端口 443)访问以下端点:

主机名用途
registry.replicated.com上游 Docker 映像通过 registry.replicated.com 拉取。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有
proxy.replicated.com上游 Docker 映像通过 proxy.replicated.com 拉取。内部部署 Docker 客户端使用许可证 ID 向 proxy.replicated.com 进行身份验证。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有
replicated.app上游应用程序 YAML 和元数据从 replicated.app 拉取。除许可证 ID 之外,还将发送应用程序的当前运行版本(如有)。应用程序 ID 将发送到 copyed.app,以对这些 YAML 文件进行身份验证和接收。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有
get.replicated.com从 replicated 同步工件。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有
api.replicated.com向基础架构安装程序发出 API 请求。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有
k8s.kurl.shKubernetes 集群安装脚本和工件可从 kurl.sh 获取。应用程序标识符在 URL 路径中发送,bash 脚本和二进制可执行文件可从 kurl.sh 获取。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有
kurl-sh.s3.amazonaws.comtar.gz 包在嵌入式集群安装期间从 Amazon S3 下载。要列入白名单以允许访问的 IP 范围,可从 AWS IP 地址范围 1 文档中动态抓取这些 IP 范围。
*.docker.io上游 Docker 映像从 docker.io 拉取。可能有多个子域,例如“registry-1.docker.io”,因此应允许使用右侧的模式。
*.docker.com其他上游 Docker 映像从 docker.com 拉取。可能有多个子域,因此应允许使用右侧的模式。
raw.githubusercontent.com使脚本能够创建持久批量声明部署。
quay.io提供容器镜像。
registry.k8s.io上游镜像从 registry.k8s.io 拉取。

GPU 安装程序脚本连接到的端点

这些端点只需连接即可使用带 AI Fabric 的 GPU。所有 GPU 安装都通过步骤 4“运行 AI Fabric 基础架构安装程序”中的 GPU 安装程序脚本完成。

主机名用途
developer.download.nvidia.com从 NVIDIA 下载 GPU 驱动程序。
nvidia.github.io下载 https://nvidia.github.io/nvidia-docker/gpgkey和 nvidia-docker.list
raw.githubusercontent.com该脚本会从 github.com/NVIDIA/k8s-device-plugin 内部下载一个 YAML 文件

在运行时连接到的端点

在运行时,通过在线安装程序安装的 AI Fabric 会连接到以下端点:

主机名用途
du-metering.uipath.com用于解释和验证 Document Understanding 许可证。
registry.replicated.com上游 Docker 映像通过私有 Docker 注册表从 registry.replicated.com 拉取。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有。
raw.githubusercontent.com使脚本能够每天更新 OOB 模型。
github.com使脚本能够每天更新 OOB 模型。
自定义(可选) 这取决于使用 AI Fabric 的角色选择如何 构建其 ML 包。 AI Fabric 会动态构建容器映像。 该映像的依赖项可以捆绑在 ML 包本身中(在这种情况下,不会执行额外的出站网络调用),也可以在 requirements.txt 文件中指定。 此文件可以 指定将从中下载依赖项的位置

连接要求 - 实体隔离安装

AI Fabric 实体隔离安装是指从 uipath 域一次性下载后触发的内部部署安装。

安装时不需要互联网连接(注意:如果节点有 GPU,则假定已安装了 NVIDA 驱动程序版本 450.51.06 和 nvidia-container-runtime(如实体隔离安装的先决条件中所述)。

在应用程序运行时,是否需要连接完全取决于 AI Fabric 的用户。 AI Fabric 用户创建可在 AI Fabric 上部署和训练的 ML 。 AI Fabric 会根据该 ML 包动态构建容器映像。 该映像的依赖项可以捆绑在 ML 包本身中(在这种情况下,不会执行额外的出站网络调用),也可以在 requirements.txt 文件中指定。 此文件可以 指定将从中下载依赖项的位置 ,例如内部安全的 Python 包依赖项存储库。

此页面有帮助吗?

获取您需要的帮助
了解 RPA - 自动化课程
UiPath Community 论坛
Uipath Logo White
信任与安全
© 2005-2024 UiPath。保留所有权利。