- 概要
- Document Understanding Process
- クイックスタート チュートリアル
- フレームワーク コンポーネント
- ML パッケージ
- パイプライン
- Document Manager
- OCR サービス
- Automation Suite にデプロイされた Document Understanding
- AI Center スタンドアロンにデプロイされた Document Understanding
- ディープ ラーニング
- ライセンス
- 参照
- UiPath.Abbyy.Activities
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Activities
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.DocumentProcessing.Contracts
- UiPath.OmniPage.Activities
- UiPath.PDF.Activities
ハードウェア要件
GPU で Document Understanding ML パッケージを実行すると、パッケージに含まれる、トレーニング プロセスを加速させるための最適化機能が働きます。
結果として GPU と CPU でのトレーニング速度の差が縮まり、GPU でのトレーニング速度は CPU の 5 倍になりました (以前は 10 倍から 20 倍高速でした)。また、CPU で最大 5000 ページまでトレーニングできるようになりました (以前は最大 500 ページ)。
GPU で Document Understanding モデルのトレーニングを問題なく実行するには、11 GB 以上のビデオ RAM を搭載した GPU が必要です。
ML パッケージ、CUDA、GPU ドライバーの対応バージョンを確認するには、以下の表を使用します。
ML パッケージのバージョン |
CUDA のバージョン |
NVIDIA ドライバー (最も低い対応バージョン) |
ハードウェア世代 |
---|---|---|---|
2022.10 | CIDA 11.3 | R450.80.03 | Ampere、Turing、Volta、Pascal、Maxwell、Kepler |
2022.4 | CUDA 11.3 | R450.36.06 | Ampere、Turing、Volta、Pascal、Maxwell、Kepler |
CUDA には後方互換性があるため、既存の CUDA アプリケーションは引き続き新しいバージョンの CUDA で使用できます。
互換性について詳しくは、こちらをご覧ください。
Document Understanding フレームワークを使用すると、OCR エンジンを使用してテキストを読み取り、ドキュメントを分類し、ドキュメントから情報を抽出できます。分類タスクや抽出タスクを CPU で実行する一方、OCR は GPU で実行することをお勧めします (ただし、GPU が利用できない場合のために CPU バージョンも用意されています)。
オンプレミスのデプロイは、Automation Suite とそのハードウェア要件を使用して行います。
抽出器と分類器の両方に同じ種類の仮想マシンを使用できます。唯一の違いはインフラストラクチャのサイズです。OCR エンジンは GPU 仮想マシンで使用することをお勧めします。ML パッケージ、CUDA のバージョン、GPU ドライバーのバージョンの相互運用性については、「相互運用性マトリクス」のセクションをご覧ください。
実際の例を見ながらハードウェア要件の理解を深めていきましょう。
サービス |
ハードウェア要件 |
機能 |
---|---|---|
抽出器 |
2 コアの CPU と 8 GB の RAM を搭載した仮想マシンを使用 |
トラフィックが完全に一定 (スパイクなし) だとすると、25,000 ページ/日または 500 万ページ/年を処理できます。 |
分類器 |
2 コアの CPU と 8 GB の RAM を搭載した仮想マシンを使用 |
トラフィックが完全に一定 (スパイクなし) だとすると、40,000 ドキュメント/日または 800 万ドキュメント/年を処理できます。 |
OCR |
GPU 仮想マシンでの使用を推奨 |
50,000 ページ/日を処理できます。 |
例: 年に 1,000 万ページを処理する場合、抽出器用に 4 コアの CPU と 16 GB の RAM を備えた仮想マシンが 1 台、分類器用に同じ仕様の仮想マシンがもう 1 台、および OCR エンジン用に NVIDIA GPU コアを備えた 3 台目の仮想マシンが必要です。
抽出器と分類器の両方に 1 台の仮想マシンのみを使用することもできます。この場合、8 コアの CPU と 32 GB の RAM を持つ仮想マシンが 1 台必要です。