- 发行说明
- 要求
- 安装
- 入门指南
- 项目
- 数据集
- ML 包
- 管道
- ML 技能
- ML 日志
- AI Fabric 中的 Document Understanding
- 基本故障排除指南
AI Fabric 单节点
总的来说,安装 AI Fabric 时需要执行以下步骤:
步骤 | 活动时间 | 等待时间 |
---|---|---|
1. 配置 AIF 计算机 | 少于 5 分钟 | -- |
2. 配置数据库 | 少于 1 分钟 | -- |
3. 配置 Orchestrator | 少于 5 分钟 | -- |
4. 运行 AI Fabric 基础架构安装程序 | 少于 1 分钟 | 约 20 分钟 |
5. 运行 AI Fabric 应用程序安装程序 | 少于 5 分钟 | 约 20 分钟 |
6. 验证安装 | 约 5 分钟 | -- |
- 将在其上安装 AI Fabric 的 Linux 计算机必须能够连接到 Orchestrator 计算机(域和端口)。
- 将在其上安装 AI Fabric 的 Linux 计算机必须能够连接到 SQL Server(域/IP 和端口)。
- 要使用 AI Fabric 的机器人/Studio 需要连接到 AI Fabric Linux 计算机。
对于外围 Document Understanding 组件(Data Manager 和 OCR 引擎):
- Data Manager 需要访问 AI Fabric on prem:<port_number> 或公共 SaaS 端点,例如 https://invoices.uipath.com,以防需要预标签(预标签是可选的)。
- Data Manager 需要访问 OCR 引擎 <端口号>。 OCR 引擎可能是内部部署的 UiPath Document OCR、内部部署的 Omnipage OCR、Google Cloud Vision OCR、Microsoft Read Azure 和内部部署的 Microsoft Read。
- 机器人需要访问 OCR:<端口号>。 OCR 选项与上述相同,但 Omnipage 除外,后者在机器人中直接作为活动包提供。
AI Fabric 在线安装是指一种内部部署安装,可从互联网下载 AI Fabric 应用程序和所有相关工件(例如机器学习模型)。
AI Fabric 安装程序会下载容器映像和机器学习模型,以使用即用型机器学习(包括 Document Understanding 模型)填充 AI Fabric 实例。 因此,在安装时,Linux 计算机需要通过 https(端口 443)访问以下端点:
主机名 | 用途 |
---|---|
registry.replicated.com | 上游 Docker 映像通过 registry.replicated.com 拉取。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有 |
proxy.replicated.com | 上游 Docker 映像通过 proxy.replicated.com 拉取。内部部署 Docker 客户端使用许可证 ID 向 proxy.replicated.com 进行身份验证。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有 |
replicated.app | 上游应用程序 YAML 和元数据从 replicated.app 拉取。除许可证 ID 之外,还将发送应用程序的当前运行版本(如有)。应用程序 ID 将发送到 copyed.app,以对这些 YAML 文件进行身份验证和接收。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有 |
get.replicated.com | 从 replicated 同步工件。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有 |
api.replicated.com | 向基础架构安装程序发出 API 请求。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有 |
k8s.kurl.sh | Kubernetes 集群安装脚本和工件可从 kurl.sh 获取。应用程序标识符在 URL 路径中发送,bash 脚本和二进制可执行文件可从 kurl.sh 获取。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有 |
kurl-sh.s3.amazonaws.com | tar.gz 包在嵌入式集群安装期间从 Amazon S3 下载。要列入白名单以允许访问的 IP 范围,可从 AWS IP 地址范围 1 文档中动态抓取这些 IP 范围。 |
*.docker.io | 上游 Docker 映像从 docker.io 拉取。可能有多个子域,例如“registry-1.docker.io”,因此应允许使用右侧的模式。 |
*.docker.com | 其他上游 Docker 映像从 docker.com 拉取。可能有多个子域,因此应允许使用右侧的模式。 |
raw.githubusercontent.com | 使脚本能够创建持久批量声明部署。 |
quay.io | 提供容器镜像。 |
registry.k8s.io | 上游镜像从 registry.k8s.io 拉取。 |
这些端点只需连接即可使用带 AI Fabric 的 GPU。所有 GPU 安装都通过步骤 4“运行 AI Fabric 基础架构安装程序”中的 GPU 安装程序脚本完成。
主机名 | 用途 |
---|---|
developer.download.nvidia.com | 从 NVIDIA 下载 GPU 驱动程序。 |
nvidia.github.io | 下载 https://nvidia.github.io/nvidia-docker/gpgkey和 nvidia-docker.list |
raw.githubusercontent.com | 该脚本会从 github.com/NVIDIA/k8s-device-plugin 内部下载一个 YAML 文件 |
在运行时,通过在线安装程序安装的 AI Fabric 会连接到以下端点:
主机名 | 用途 |
---|---|
du-metering.uipath.com | 用于解释和验证 Document Understanding 许可证。 |
registry.replicated.com | 上游 Docker 映像通过私有 Docker 注册表从 registry.replicated.com 拉取。此域归总部位于美国加利福尼亚州洛杉矶市的 Replicated, Inc 所有。 |
raw.githubusercontent.com | 使脚本能够每天更新 OOB 模型。 |
github.com | 使脚本能够每天更新 OOB 模型。 |
自定义(可选) | 这取决于使用 AI Fabric 的角色选择如何 构建其 ML 包。 AI Fabric 会动态构建容器映像。 该映像的依赖项可以捆绑在 ML 包本身中(在这种情况下,不会执行额外的出站网络调用),也可以在 requirements.txt 文件中指定。 此文件可以 指定将从中下载依赖项的位置 。 |
AI Fabric 实体隔离安装是指从 uipath 域一次性下载后触发的内部部署安装。
安装时不需要互联网连接(注意:如果节点有 GPU,则假定已安装了 NVIDA 驱动程序版本 450.51.06 和 nvidia-container-runtime(如实体隔离安装的先决条件中所述)。
在应用程序运行时,是否需要连接完全取决于 AI Fabric 的用户。 AI Fabric 用户创建可在 AI Fabric 上部署和训练的 ML 包 。 AI Fabric 会根据该 ML 包动态构建容器映像。 该映像的依赖项可以捆绑在 ML 包本身中(在这种情况下,不会执行额外的出站网络调用),也可以在 requirements.txt 文件中指定。 此文件可以 指定将从中下载依赖项的位置 ,例如内部安全的 Python 包依赖项存储库。