- 基本情報
- データのセキュリティとコンプライアンス
- 組織
- 認証とセキュリティ
- ライセンス
- テナントとサービス
- アカウントとロール
- AI Trust Layer
- 外部アプリケーション
- 通知
- ログ
- 組織でのテスト
- トラブルシューティング
- Test Cloud に移行する

Test Cloud 管理ガイド
LLM を設定する
LLM の設定は、以下のライセンス プランで利用できます。
- ユニファイド プライシング: App Test Platform Enterprise、App Test Platform Standard。
[LLM の設定] タブでは、既存の AI サブスクリプションを統合しながら、UiPath が提供するガバナンス フレームワークを維持できます。できます:
- UiPath の LLM サブスクリプションを置き換える: UiPath で管理されるサブスクリプションを独自のサブスクリプションに置き換えます。ただし、UiPath 製品ですでにサポートされているものと同じモデル ファミリとバージョンに一致することが条件です。これにより、UiPath で管理されるモデルをユーザーのサブスクリプション済みモデルにシームレスに置き換えることができます。
- 独自の LLM を追加する: 製品の相互運用性基準を満たす任意の LLM を使用します。スムーズな連携を実現するため、選択した LLM を UiPath エコシステム内で使用する前に、その LLM が、プローブ呼び出しによって開始される一連のテストに合格する必要があります。
LLM を設定する場合、Automation Ops を介したポリシーの適用や詳細な監査ログなど、AI Trust Layer のガバナンス上の利点の大半は維持されます。ただし、モデルのガバナンス ポリシーは UiPath で管理される LLM 専用に設計されています。つまり、AI Trust Layer のポリシーを使用して特定のモデルを無効化すると、制限は、そのモデルの UiPath で管理されるバージョンにのみ適用されます。ユーザーが独自に設定した同じ種類のモデルは影響を受けません。
独自の LLM またはサブスクリプションを使用するオプションを利用する場合は、以下の点に留意してください。
- 相互運用性の要件: 選択した LLM またはサブスクリプションが、UiPath 製品で現在サポートされているモデル ファミリおよびバージョンと一致している必要があります。
- 設定: 必ず、必要なすべての LLM をカスタム設定で適切に設定し、維持管理します。不足しているコンポーネント、古いコンポーネント、正しく設定されていないコンポーネントがあると、カスタム設定が機能しなくなる可能性があります。このような場合、Automation Ops のポリシーで UiPath LLM をオフにしていない限り、サービスの継続性を確保するために、UiPath で管理される LLM に自動的に戻ります。
- コスト削減: カスタム LLM の設定が完全で正しく、必要な要件をすべて満たしている場合は、使用率の引き下げ対象になる可能性があります。
LLM のコネクションを設定する
LLM のコネクションでは、Integration Service を利用して、ユーザー独自のモデルへのコネクションを確立します。 以下のプロバイダーへのコネクションを作成できます。
- Azure OpenAI
- OpenAI
- Amazon Bedrock
- Google Vertex
- Open AI V1 準拠の LLM – OpenAI V1 標準に準拠している API を備えた LLM プロバイダーに接続するには、このオプションを使用します。詳しくは、OpenAI V1 準拠の LLM コネクタに関するドキュメントをご覧ください。
新しいコネクションを設定するには、次の手順に従います。
-
Integration Service で、任意のプロバイダーへのコネクションを作成します。 認証に関するコネクタ固有の詳細については、『Integration Service ユーザー ガイド』をご覧ください。
注:未認可のアクセスを防ぐには、Integration Service のコネクションを非共有のプライベート フォルダーに作成します。
-
[管理] > [AI Trust Layer] > [LLM の設定] に移動します。
-
コネクションを設定するテナントとフォルダーを選択します。
-
[設定を追加] を選択します。
-
[製品] と [機能] を選択します。
-
設定方法を選択します。
- UiPath の LLM サブスクリプションを置換 – UiPath で管理されるコネクションの代わりに、独自のコネクションを使用します。
- 独自の LLM を追加 – 完全に独自で管理する LLM の設定を追加します。
注:
独自の LLM を設定する場合、必要に応じて、組織で使用できる大規模言語モデルを制限できます。自分のカスタム モデルのみが使用されるようにする場合は、AI Trust Layer のポリシーを適用して、UiPath で管理されるサードパーティ モデルを無効化できます。詳しくは、『AI Trust Layer ポリシー』のドキュメントの「 モデル 」セクションをご覧ください。
選択した製品によっては、選択できるオプションは 1 つのみである場合があります。
-
[UiPath の LLM サブスクリプションを置換] のコネクションを設定します。
- フォルダー – 設定を保存するフォルダーを選択します。
- 置き換え可能な LLM – ドロップダウンから、置換する UiPath LLM を選択します。
- コネクタ – コネクタを選択します (例: Microsoft Azure OpenAI)。
- コネクション – Integration Service のコネクションを選択します。 利用可能なコネクションがない場合は、[新しいコネクションを追加] を選択すると、Integration Service にリダイレクトされます。
- LLM の識別子 – モデルの識別子を入力します。
- Azure がホストするモデルの場合は、モデル識別子を入力します。
- AWS Bedrock のクロスリージョン推論の場合は、モデル ID ではなく推論プロファイル ID を入力します。
-
[独自の LLM を追加] のコネクションを設定します。
- フォルダー – 設定を保存するフォルダーを選択します。
- 表示 (LLM) 名 – LLM のエイリアスを指定します。
- コネクタ – コネクタを選択します (例: Microsoft Azure OpenAI)。
- コネクション – Integration Service のコネクションを選択します。
- LLM の識別子 – モデルの識別子を入力します。
- Azure がホストするモデルの場合は、モデル識別子を入力します。
- AWS Bedrock のクロスリージョン推論の場合は、モデル ID ではなく推論プロファイル ID を入力します。
-
[設定をテスト] を選択し、モデルがアクセス可能で、必要な基準を満たしていることを確認します。
UiPath はアクセス可能かどうかを確認することができますが、使用されている正確なモデルを検証することはお客様の責任です。
-
テストが成功した場合は、[保存] を選択してコネクションをアクティブ化します。
LLM の既存のコネクションを管理する
既存のコネクションに対して以下の操作を実行できます。
- ステータスを確認 – Integration Service のコネクションのステータスを確認します。この操作により、コネクションがアクティブで正しく機能していることを確認します。
- 編集 – 既存のコネクションのパラメーターを変更します。
- 無効化 – コネクションを一時的に中断します。無効化した場合、コネクションはこれまでどおりリストに表示されますが、呼び出しをルーティングしません。必要に応じて、コネクションを再度有効化することができます。
- 削除 – コネクションをシステムから完全に削除します。この操作を行うと、コネクションは無効化されてリストから削除されます。
製品の LLM を設定する
各製品は、特定の大規模言語モデル (LLM) とバージョンをサポートしています。以下の表で、お使いの製品でサポートされているモデルとバージョンを確認してください。
アマゾン ウェブ サービス、Google Vertex、Microsoft Azure OpenAI、または OpenAI v1 準拠のいずれかのプロバイダーを使用して、独自の LLM を接続できます。前のセクションで概説されている手順に従って、コネクションを作成します。
| 製品 | 機能 | LLM (大規模言語モデル) | バージョン |
|---|---|---|---|
| Agents1 | 設計、評価、デプロイ | Anthropic | anthropic.claude-3.5-sonnet-20240620-v1:0 anthropic.claude-3.5-sonnet-20241022-v2:0 anthropic.claude-3.7-sonnet-20250219-v1:0 anthropic.claude-3-haiku-20240307-v1:0 |
| gemini-2.5-pro Gemini-2.5-flash | |||
| OpenAI | gpt-4o-2024-05-13 gpt-4o-2024-08-06 gpt-4o-2024-11-20 gpt-4o-mini-2025-04-14 GPT-4o-mini-2024-07-18 | ||
| Autopilot for Everyone | チャット | Anthropic | anthropic.claude-3.5-sonnet-20240620-v1:0 anthropic.claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | GPT-4o-mini-2024-07-18 | ||
| GenAI アクティビティ | 構築、テスト、デプロイ | Anthropic | anthropic.claude-3-5-sonnet-20240620-v1:0 anthropic.claude-3-5-sonnet-20241022-v2:0 anthropic.claude-3-7-sonnet-20250219-v1:0 anthropic.claude-sonnet-4-20250514-v1:0 anthropic.claude-sonnet-4-5-20250929-v1:0 anthropic.claude-haiku-4-5-20251001-v1:0 |
| Gemini-2.0-flash-001 gemini-2.5-pro Gemini-2.5-flash | |||
| OpenAI | GPT-5-2025-08-07 GPT-5-mini-2025-08-07 gpt-5-nano-2025-08-07 gpt-5.1-2025-11-13 gpt-4o-2024-11-20 GPT-4o-mini-2024-07-18 | ||
| Healing Agent | ワークフローの回復 | Gemini-2.5-flash | |
| OpenAI | gpt-4o-2024-08-06 | ||
| UI Automation | ScreenPlay | Anthropic | anthropic.claude-sonnet-4-5-20250929-v1:0 |
| Gemini-2.5-flash | |||
| OpenAI | gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 GPT-5-2025-08-07 GPT-5-mini-2025-08-07 computer-use-preview-2025-03-11 | ||
| Test Manager | Autopilot (テストの生成と管理) | Anthropic | anthropic.claude-3.7-sonnet-20250219-v1:0 (2026 年 3 月に anthropic.claude-4.5-sonnet に置き換え予定) |
| gemini-2.5-pro Gemini-2.5-flash | |||
| OpenAI | gpt-4o-2024-11-20 |
1 エージェントのモデルのデプロイを設定する場合、LLM が以下の機能をサポートしていることを確認します。
- ツール (関数) の呼び出し – モデルは、実行中にツールまたは関数を呼び出せる必要があります。
- 並列のツール呼び出しの無効化 – 並列のツール呼び出しが LLM プロバイダーによってサポートされている場合、モデルは、その呼び出しを無効化するためのオプションを提供している必要があります。
注:
カスタム モデルを使用する場合、モデルの真のトークン容量を判断できません。エージェントは、基になるモデルでサポートされているよりも高い値であっても、既定で 4096 トークンの制限に設定されます。これは意図的な挙動であり、UiPath は顧客定義のデプロイに対するトークンの制限を推測できないためです。