automation-cloud-dedicated
latest
false
重要 :
请注意,此内容已使用机器翻译进行了部分本地化。 新发布内容的本地化可能需要 1-2 周的时间才能完成。
UiPath logo, featuring letters U and I in white

Automation Cloud专用管理员指南

上次更新日期 2025年12月5日

管理 AI Trust Layer

查看使用情况摘要

AI Trust Layer ”页面上的“ 使用情况摘要”选项卡概述了不同区域的模型使用情况和限制。它表示审核日志中的历史数据,并反映监管策略的设置。

您可以查看根据以下条件显示的数据:

  • 每个状态的 LLM 操作总数:使您可以跨区域监控不同模型的状态。要自定义数据可视化,您可以按区域、模型、状态和来源进行筛选。
  • 每个产品的 LLM 操作总数- 用于监控组织内 AI 功能的采用情况。 要自定义数据可视化,您可以按租户和产品进行筛选。

查看审核日志

“AI Trust Layer” 页面上的“审核” 选项卡提供了与 AI 相关的操作的全面视图,其中包含有关请求和操作、启动请求的产品和功能以及使用的模型及其位置的详细信息。您可以监控所有与 AI 相关的操作,并确保其符合您既定的准则和策略。审核日志还提供了对 Gen AI Activities、Agents、Autopilot for Everyone 和 Document Understanding 生成式功能输入和输出的可见性。请注意,您可以查看过去 60 天内创建的日志条目。

审核数据以表格的形式显示,其每一列都提供了与 AI 相关操作的特定信息:

  • 日期 (UTC) :这将显示请求每次操作的确切日期和时间。 它允许根据请求的时间顺序准确跟踪请求,从而有助于及时审核。
  • 产品:启动每次操作的特定产品。 这种可见性允许将任何操作追踪回其原始产品,以增强理解和责任。
  • 功能: 启动操作的特定产品功能,便于在发生问题时追踪到特定功能。
  • 租户” :组织中启动操作的特定租户。 此见解可提供更详细的概述,并帮助在租户级别识别模式或问题。
  • “用户” :租户中发起操作的个人用户。它允许在更细化的用户级别追踪活动,从而增强了监督能力。对于 GenAI Activities,用户由连接创建者代表。“N/A”值表示没有可用用户的服务到服务通信。
  • 使用的模型:用于处理每个操作的特定 AI 模型。 此见解可用于更好地了解哪些模型正在处理哪些类型的请求。
  • 模型位置:托管所用模型的位置。 此信息可协助特定位置的模型性能可能引起的潜在故障排除或审核要求。
  • 状态:每个操作的状态 — 显示操作是成功、失败还是已阻止。 这种快速识别操作问题的方法对于维护流畅、高效的环境至关重要。

此外,筛选功能使您可以根据日期、产品、使用的模型、状态或来源等条件缩小审核范围。“来源”筛选器可用于选择查看所有调用、仅查看 UiPath 托管调用或完全自定义连接调用(使用客户管理的订阅,如配置 LLM中所定义)。

此外,从“审核”表格中选择条目时,您可以访问“详细信息”部分以进行更深入的查看,其中包括“审核”表格中所有可用的数据,以及 LLM 调用源和与该条目关联的确切部署调用。

警告:查看最近的条目时,审核日志输入和输出字段可能会暂时显示为空。这是一个已知的延迟问题,数据通常在不久后变得可用。

处理审核日志中的 PII 和 PHI 数据

在 UiPath 中使用生成式 AI 功能时,请务必了解审核日志可能包含个人可识别信息 (PII) 或受保护的健康信息 (PHI)。这些详细信息可以显示在发送到大型语言模型 (LLM) 的输入提示词及其生成的响应中。这适用于通过 Attended 和 Unattended 自动化执行的交互。

启用提示词保存功能后,每个审核日志条目的“详细信息”部分会显示完整的输入和输出内容。这包括以下元数据:

  • 操作 ID
  • 租户
  • 产品
  • 功能
  • 用户
  • 时间戳
隐藏敏感数据以确保合规

如果您的合规性规则要求在审核日志中隐藏 PII 和 PHI 数据,则可以配置 AI Trust Layer 策略来控制可见性:

  1. 转到Automation Ops™ > 监管,然后选择或创建 AI Trust Layer 策略。
  2. “功能切换”选项卡中,确保将“启用审核提示保存” 设置为“是否启用审核提示?”。“否” 选项更改为“否”。

使用此设置时,审核日志中均不会保留提示或 LLM 输出。日志将显示条目元数据,但输入/输出内容将显示为“已被策略阻止”。

备注:

此配置允许您从日志条目中隐藏敏感内容,满足合规性要求并控制敏感数据的可见性,同时保留审核功能。提示词隐藏后,您将无法恢复进一步使用。

管理 AI Trust Layer 策略

页面上的“AI 监管” AI Trust Layer选项卡允许您通过 策略管理组织、租户或用户组的第三方 AIAI Trust Layer 模型使用情况。这可帮助您控制用户对生成式 AI 功能的访问,并确保整个组织进行适当的监管。

您可以大致了解所有有效的策略及其当前状态。 除此之外,您可以查看和管理策略及其部署,如下所示:

  • 选择策略名称时,系统会将您重定向到 Automation Ops™ >监管中的相应 AI Trust Layer 策略。您现在可以查看策略详细信息,并在必要时进行更改。有关详细信息,请参阅AI Trust Layer 策略设置。您也可以通过选择“添加策略”直接创建 AI Trust Layer 策略。
  • 当您选择“管理部署”时,您将被重定向到 Automation Ops™ > “监管” > “部署” ,您可以在其中审核所有策略部署。有关详细信息,请参阅在租户级别部署策略

管理 Autopilot for Everyone

“AI Trust Layer” 页面上的此 Autopilot for Everyone 选项卡使您可以管理整个组织中 Autopilot for Everyone 的使用情况。

您可以执行以下操作:

配置 LLM

备注: LLM 配置可在以下许可计划中使用:
  • Flex:高级平台,Flex 标准平台。

“LLM 配置”选项卡允许您集成现有的 AI 订阅,同时维护 UiPath 提供的监管框架。您可以:

  • 替换 UiPath LLM 订阅:将 UiPath 管理的订阅替换为您自己的订阅,前提是这些订阅与 UiPath 产品已支持的相同模型系列和版本匹配。这样就可以将 UiPath 托管模型与订阅的模型无缝交换。
  • 添加自己的 LLM:使用满足产品兼容性条件的任何 LLM。为确保集成顺利进行,您选择的 LLM 必须通过通过探测器调用启动的一系列测试,然后才能在 UiPath 生态系统中使用。

配置 LLM 后可保留 AI Trust Layer 的大部分监管优势,包括通过 Automation Ops 和详细的审核日志强制执行策略。但是,模型监管策略是专门为 UiPath 托管的 LLM 设计的。这意味着,如果您通过 AI Trust Layer 策略禁用特定模型,则限制仅适用于该模型的 UiPath 托管版本。您自己配置的相同类型模型不受影响。

在利用该选项以使用自己的 LLM 或订阅时,请牢记以下几点:

  • 兼容性要求:您选择的 LLM 或订阅必须与 UiPath 产品当前支持的模型系列和版本保持一致。
  • 设置:确保在自定义设置中正确配置和维护所有必需的 LLM。如果有任何组件缺失、过期或配置不正确,您的自定义安装可能会停止运行。在这种情况下,系统将自动还原为 UiPath 托管的 LLM,以确保服务的连续性,除非通过 Automation Ops 策略关闭 UiPath LLM。

  • 节省成本:如果您的自定义 LLM 设置完整、正确并满足所有必要要求,则可能有资格获得降低消耗费率。

设置 LLM 连接

LLM 连接依赖于 Integration Service 来建立与您自己的模型的连接。

您可以创建与以下提供程序的连接:

  • Azure Open AI
  • OpenAI
  • Amazon Bedrock
  • Google Vertex
  • “开放式 AI V1 兼容的 LLM” – 使用此选项可连接到 API 遵循 OpenAI V1 标准的任何 LLM 提供程序。有关详细信息,请参阅符合 OpenAI V1 的 LLM 连接器文档

要设置新连接,请执行以下步骤:

  1. 在 Integration Service 中创建与您选择的提供程序的连接。有关特定于连接器的身份验证详细信息,请参阅Integration Service 用户指南
    注意:为防止未经授权的访问,请在私有的非共享文件夹中创建 Integration Service 连接。
  2. 导航到“管理员” > “AI Trust Layer” > “LLM 配置”
  3. 选择要在其中配置连接的租户和文件夹。
  4. 选择“添加配置”
  5. 选择“产品”“功能”
  6. 选择配置方式:
    • 替换 UiPath LLM 订阅– 使用您自己的连接,而非由 UiPath 管理的连接。

    • 添加自己的 LLM – 添加完全由您管理的其他 LLM 配置。

    根据所选产品,可能只有一个选项可用。

  7. “替换 UiPath LLM”订阅设置连接 :
    1. 文件夹– 选择将存储配置的文件夹。
    2. 可替换的 LLM – 从下拉列表中选择要替换的 UiPath LLM。
    3. 连接器– 选择连接器(例如 Microsoft Azure OpenAI)。
    4. 连接– 选择您的 Integration Service 连接。如果没有可用的连接,请选择“添加新连接”以重定向到 Integration Service。
    5. LLM 标识符– 输入模型的标识符。
      • 对于 Azure 托管的模型,请输入模型标识符。
      • 对于 AWS Bedrock 跨区域推理,请输入推理配置文件 ID 而不是模型 ID。
  8. 设置“添加自己的 LLM”的连接:
    1. 文件夹– 选择将存储配置的文件夹。
    2. 显示的 (LLM) 名称– 为 LLM 提供别名。
    3. 连接器– 选择连接器(例如 Microsoft Azure OpenAI)。
    4. 连接– 选择您的 Integration Service 连接。
    5. LLM 标识符– 输入模型的标识符。
      • 对于 Azure 托管的模型,请输入模型标识符。
      • 对于 AWS Bedrock 跨区域推理,请输入推理配置文件 ID 而不是模型 ID。
  9. 选择“测试配置” ,以检查模型是否可访问并满足所需条件。
    UiPath 可以确认可用性,您负责验证确切的模型。
  10. 如果测试成功,请选择“保存”以激活连接。

管理现有 LLM 连接

您可以对现有连接执行以下操作:

  • 检查状态– 验证 Integration Service 连接的状态。此操作可确保连接处于活动状态并正常运行。
  • 编辑– 修改现有连接的任意参数。
  • 禁用– 暂停连接。禁用后,该连接在列表中仍可见,但不会路由任何调用。您可以在需要时重新启用连接。
  • 删除– 从系统中永久删除连接。此操作会禁用连接并将其从列表中删除。

为产品配置 LLM

每个产品都支持特定的大型语言模型 (LLM) 和版本。使用下表确定您的产品支持的型号和版本。

您可以使用以下提供程序之一连接自己的 LLM:Amazon Web Services、Google Vertex、Microsoft Azure OpenAI 或符合 OpenAI V1 要求。请按照上一节中列出的步骤创建连接。

产品功能LLM 提供商版本
适合所有人的 Autopilot聊天Anthropic

anthropic.clade-3.5-sonnet-20240620-v1:0

anthropic.clade-3.7-sonnet-20250219-v1:0

OpenAIgpt-4o-mini-2024-07-18
编码智能体调用 LLMAnthropic

anthropic.clade-3.5-sonnet-20240620-v1:0

anthropic.clade-3.5-sonnet-20241022-v2:0

anthropic.clade-3.7-sonnet-20250219-v1:0

anthropic.clade-3-haiku-20240307-v1:0

Gemini

Gemini-1.5-pro-001

Gemini-2.0-fash-001

OpenAI

gpt-4o-2024-05-13

gpt-4o-2024-08-06

gpt-4o-2024-11-20

gpt-4o-mini-2024-07-18

o3-mini-2025-01-31

上下文基础高级提取GeminiGemini-2.5-flake
嵌入OpenAI嵌入 3 个大型文本

Gemini-embedding-001

GenAI Activities构建、测试和部署Anthropic

anthropic.clade-3.5-sonnet-20241022-v2:0

anthropic.clade-3.7-sonnet-20250219-v1:0

Gemini

Gemini-2.5-Pro

Gemini-2.5-flake

OpenAI

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

gpt-5-nana-2025-0807

此页面有帮助吗?

获取您需要的帮助
了解 RPA - 自动化课程
UiPath Community 论坛
Uipath Logo
信任与安全
© 2005-2025 UiPath。保留所有权利。