Document Understanding
最新
False
横幅背景图像
Document Understanding 用户指南
上次更新日期 2024年4月30日

部署高效能模型

随着机器学习 (ML) 模型准确性的提高,其资源需求也会发生变化。为了获得最佳性能,在通过 AI Center™ 部署 ML 模型时,请务必根据其需要处理的流量适当调整技能的大小。在大多数情况下,基础架构的大小根据单位时间(分钟或小时)的页面数量而定。一个文档可以包含一个或多个页面。

ML 模型性能简介

要通过 AI Center 部署基础架构,需要牢记几个重要的方面,以实现最佳性能。

GPU

只有一种 GPU 基础架构可用。启用 GPU 的复选框会突出显示这一点。每项技能在具有 GPU 的单个虚拟机 (VM) 或节点上运行。在这种情况下,CPU 和内存不相关,因为技能可以使用这些节点上所有可用的 CPU 和内存资源。除了吞吐量外,GPU 的运行速度更快。因此,如果延迟很严重,建议使用 GPU。

CPU

CPU 和内存可以分开,这意味着多个 ML 技能可以在同一个节点上运行。为避免相邻技能的干扰,每个 ML 技能都有其可消耗的内存和 CPU 的数量,具体取决于所选的层。CPU 性能越高,(页面)处理速度就越快,而内存容量越大,可处理的文档数量就越多。

副本数量

副本的数量决定了用于服务 ML 模型请求的容器数量。数字越大,可以并行处理的文档数量就越多,具体取决于该特定层的限制。副本的数量直接与基础架构类型相关(每个副本的 CPU 数量,或者使用 GPU),从某种意义上说,副本和基础架构大小都会直接影响吞吐量(页/分钟)。

注意:多个副本会可成倍提高吞吐量。

机器人数量

机器人的数量会影响吞吐量。为了获得高效的吞吐量,需要调整机器人的数量,以免造成 ML 技能超载。这取决于自动化本身,应进行测试。作为一般准则,您可以使用一到三个机器人作为 ML 技能拥有的每个副本的起点。根据整体流程时间(不包括 ML 提取程序),机器人的数量(或副本的数量)可以更多或更少。

与基础架构大小调整相关的潜在问题

如果基础架构的大小不正确,则模型可能会承受非常高的负载。在某些情况下,这可能会导致请求积压、处理时间过长,甚至导致文档处理失败。

内存不足

内存不足通常出现在较低 CPU 层(0.5 个 CPU 或 1 个 CPU)。如果您需要处理非常大的有效负载(一个或多个大型文档),则可能会导致内存不足异常。这与文档的页面大小和文本密度(每页的文本数量)有关。由于每个用例的要求都非常特定,因此无法提供确切的数字。您可以查看正确调整基础架构大小部分中的准则,以获取更多详细信息。如果遇到内存不足的情况,一般建议使用下一层。

计算不足

计算不足指的是 CPU 和 GPU,尽管这种情况在 CPU 上更常见。当 ML 技能收到与其可用容量相关的页面过多时,请求可能会超时(520499 状态代码)、积压,甚至导致模型崩溃(503500 状态代码)。如果遇到计算不足的情况,我们建议使用下一层,甚至 GPU 层。

正确调整基础架构的大小

一般准则

本部分提供有关模型在每种不同技能规格上执行情况的一般准则。

注意:每个模型生成版本(2022.10、2023.4、或 2023.10)在所需资源和吞吐量方面,其行为有所不同。随着模型在准确性方面变得越来越好,这也会影响性能并需要更多资源。
表 1. 2022.10 提取程序
层级每个文档的最大页数预期吞吐量(页/小时)AI 单元/小时
0.5 CPU/2 GB 内存25300-6001
1 个 CPU/4 GB 内存50400-8002
2 个 CPU/8 GB 内存100600-10004
4 个 CPU/16 GB 内存100800-12008
6 个 CPU/24 GB 内存100900-130012
GPU200-2501350-160020
表 2. 2023.4 提取程序
层级每个文档的最大页数预期吞吐量(页/小时)AI 单元/小时
0.5 CPU/2 GB 内存2540-1001
1 个 CPU/4 GB 内存5070-1402
2 个 CPU/8 GB 内存75120-2204
4 个 CPU/16 GB 内存100200-3008
6 个 CPU/24 GB 内存100250-40012
GPU200-2501400-220020
表 3. 2023.7 和 2023.10 提取程序
层级每个文档的最大页数预期吞吐量(页/小时)AI 单元/小时
0.5 CPU/2 GB 内存2560-2001
1 个 CPU/4 GB 内存50120-2402
2 个 CPU/8 GB 内存75200-2804
4 个 CPU/16 GB 内存100250-4008
6 个 CPU/24 GB 内存100350-50012
GPU200-2501000-200020

预期吞吐量用于表达每个副本(以页面/小时为单位),以及最小和最大预期吞吐量,具体取决于文档本身。应根据最高预期吞吐量(峰值)调整 ML 技能的大小,而不是一天、一周或一个月的平均吞吐量。

注意:调整基础架构大小时,请确保从技能需要处理的最大文档和预期吞吐量开始。

示例

示例 1

ML 技能需要使用 2023.10 提取程序处理以下内容:
  • 最多包含五页的文档。
  • 每小时的最大峰值为 300 页。

由于吞吐量较低且文档较小,因此本示例中不需要 GPU。0.5 个 CPU 或 1 个 CPU 层的 2 到 4 个副本就足够了。

示例 2

ML 技能需要使用 2023.4 提取程序处理以下内容:
  • 最多包含 80 页的文档。
  • 最大峰值为每小时 900 页。

在此示例中,4 个 CPU 层的三个副本或一个 GPU 层已足够。

注意:单个副本不具有高可用性,因此始终建议对关键生产工作流至少使用两个副本。

示例 3

ML 技能需要使用 2023.10 提取程序处理以下内容:
  • 最多包含 50 页的文档。
  • 最大峰值为每小时 3000 页。
有两种方法可以满足此要求:
  • 使用 3 个 GPU 副本。
  • 使用 4 个 CPU 或 6 个 CPU 层的 12-15 个副本。

这两个选项都具有高可用性,因为 ML 技能有两个以上的副本。

此页面是否有帮助?

获取您需要的帮助
了解 RPA - 自动化课程
UiPath Community 论坛
Uipath 白色徽标
信任与安全
© 2005-2024 UiPath. All rights reserved.