Document Understanding
2022.10
False
横幅背景图像
Document Understanding 用户指南
上次更新日期 2024年4月19日

硬件要求

在 GPU 上运行 Document Understanding ML 包的过程包含一项旨在加速训练流程的优化。

兼容性矩阵

因此,在 GPU 上训练的速度比在 CPU 上训练快 5 倍(以前是 10 到 20 倍)。这也使在 CPU 上训练多达 5000 页(以前最多为 500 页)的模型成为可能。

请注意,在 GPU 上训练 Document Understanding 模型时,GPU 至少需要具有 11GB 的视频 RAM 才能成功运行。

使用下表检查 ML 包、CUDA 版本和 GPU 驱动程序版本之间的兼容性。

ML 包版本

CUDA 版本

NVIDIA 驱动程序(最低兼容版本)

硬件生成

2022.10CIDA 11.3R450.80.03Ampere, Turing, Volta, Pascal, Maxwell, Kepler
2022.4CUDA 11.3R450.36.06Ampere, Turing, Volta, Pascal, Maxwell, Kepler

CUDA 向后兼容,这意味着现有的 CUDA 应用程序可以继续与较新的 CUDA 版本一起使用。

有关兼容性的更多信息,请参见此处

CPU 和 GPU 使用情况

您可以使用 Document Understanding 框架通过 OCR 引擎读取文本、对文档进行分类以及从文档中提取信息。虽然分类和提取任务在 CPU 上运行,但建议在 GPU 上运行 OCR(尽管在 GPU 不可用的情况下,还提供 CPU 版本)。

本地部署使用 Automation Suite 并按照其硬件要求完成。

您可以对提取程序和分类器使用相同类型的虚拟机,唯一的区别是基础架构大小。我们建议将 OCR 引擎与 GPU 虚拟机一起使用。“兼容新矩阵”部分介绍了 ML 包、CUDA 版本和 GPU 驱动程序版本之间的兼容性。

让我们举一个实际中的例子,以更好地了解硬件要求。

服务

硬件要求

功能

提取程序

使用至少具有 2 个 CPU 内核和 8 GB RAM 的虚拟机

假设流量完全恒定(无峰值),每天可以处理 25,000 页或每年可以处理 500 万页文档

分类器

使用至少具有 2 个 CPU 内核和 8 GB RAM 的虚拟机

假设流量完全恒定(无峰值),每天可以处理 40,000 个或每年可以处理 800 万个文档

OCR

建议与 GPU 虚拟机一起使用

每天可处理 50,000

示例:如果您每年处理 1000 万页,则需要一个具有 4 个 CPU 内核、16 GB RAM 的虚拟机用于提取程序,还需要一个用于分类器,还需要一个具有 NVIDIA GPU 内核的虚拟机用于 OCR 引擎。

您还可以选择让提取程序和分类器共同使用一个虚拟机,这意味着您需要一个具有 8 个 CPU 内核和 32 GB RAM 的虚拟机。

注意:您始终可以使用功能更强大的 CPU/GPU 虚拟机来增加每天处理的文档数量。
  • 兼容性矩阵
  • CPU 和 GPU 使用情况

此页面是否有帮助?

获取您需要的帮助
了解 RPA - 自动化课程
UiPath Community 论坛
Uipath 白色徽标
信任与安全
© 2005-2024 UiPath. All rights reserved.