document-understanding
2022.4
true
重要 :
このコンテンツの一部は機械翻訳によって処理されており、完全な翻訳を保証するものではありません。 新しいコンテンツの翻訳は、およそ 1 ~ 2 週間で公開されます。
UiPath logo, featuring letters U and I in white

Document Understanding ガイド

Automation CloudAutomation Cloud Public SectorAutomation SuiteStandalone
最終更新日時 2024年10月24日

OCR サービス

OCR サービスについて

OCR サービスは以下の目的で使用されます。

  • Document Manager にドキュメントをインポートしてデータのラベル付けを行う際に使用されます。この手順で使用できるエンジンは、UiPath Document OCR、Google Cloud Vision OCR、Microsoft Read OCR です。
  • 実行時に RPA ワークフローからモデルを呼び出すとき。このステップで利用可能なエンジンは、上記をはじめとする UiPath RPA プラットフォームに統合されているすべてのエンジンと、Abbyy Finereader、Microsoft OCR (レガシ)、Microsoft Project Oxford OCR、Tesseract です。

運用環境では、ワークフロー内で [ドキュメントをデジタル化] アクティビティを使用して OCR を呼び出し、ML モデルを呼び出すアクティビティへの入力としてドキュメント オブジェクト モデルを渡すことをお勧めします。そのためには、[マシン ラーニング抽出器] アクティビティ (オフィシャル フィード) を使用する必要があります。

テストをすばやく簡単に実施するために AI Center ([設定] ウィンドウ) で OCR を直接設定することもできますが、これは運用環境のデプロイでは推奨されません。

Document Manager および AI Center の Document Understanding ML パッケージの OCR サービスを設定する

以下の表に、Document Manager と AI Center の両方でサポートされている 6 種類の OCR エンジンの設定方法を示します。

重要: ocr.method 引数は、AI Center の ML パッケージの作成ビューにある [OCR エンジン] ドロップダウンに対応しています。

OCR エンジン

OCR メソッド

OCR キー

OCR の URL

UiPath

UiPath Document OCR

UiPath Automation Cloud

Document Understanding の API キー

Enterprise プラン

http://<IP_addr>:<port_number>

Google

Google Cloud Vision OCR

GCP コンソールの API キー

https://vision.googleapis.com/v1/images:annotate

Microsoft Read 2.0 On-Prem

Microsoft Read OCR

None

http://<IP_addr>:<port_number>/vision/v2.0/read/core/Analyze

Microsoft Read 2.0 Azure

Microsoft Read OCR

Azure Portal からのリソースに対応する API キー

<Azure_resource_Endpoint>/vision/v2.0/read/core/asyncBatchAnalyze

Microsoft Read 3.2 On-Prem

Microsoft Read OCR

None

http://<IP_addr>:<port_number>/vision/v3.2/read/analyze

Microsoft Read 3.2 Azure

Microsoft Read OCR

Azure Portal からのリソースに対応する API キー

<Azure_resource_Endpoint>/vision/v3.2/read/analyze

このページは役に立ちましたか?

サポートを受ける
RPA について学ぶ - オートメーション コース
UiPath コミュニティ フォーラム
Uipath Logo White
信頼とセキュリティ
© 2005-2024 UiPath. All rights reserved.