UiPath Documentation
test-cloud
latest
false
Importante :
A localização de um conteúdo recém-publicado pode levar de 1 a 2 semanas para ficar disponível.
UiPath logo, featuring letters U and I in white

Guia do administrador do Test Cloud

Última atualização 7 de abr de 2026

Configuração de LLMs

Observação:

As configurações do LLM estão disponíveis nos seguintes planos de licenciamento:

  • Unified Pricing: App Test Platform Enterprise, App Test Platform Standard.

A guia Configurações do LLM permite que você integre suas assinaturas de IA existentes, mantendo a estrutura de governança fornecida pela UiPath. Você pode:

  • Substituir assinatura de LLM da UiPath: substitua as assinaturas gerenciadas pela UiPath por suas próprias, desde que correspondam à mesma família e versão do modelo que já são compatíveis com o produto da UiPath. Isso permite a troca perfeita de modelos gerenciados pela UiPath por seus modelos assinados.
  • Adicione seu próprio LLM: use qualquer LLM que atenda aos critérios de compatibilidade do produto. Para garantir uma integração suave, seu LLM escolhido deve passar por uma série de testes iniciados por meio de uma chamada de investigação antes de poder ser usado dentro do ecossistema da UiPath.

A configuração de LLMs preserva a maioria dos benefícios de governança da AI Trust Layer, incluindo a aplicação de políticas por meio do Automation Ops e logs de auditoria detalhados. No entanto, as políticas de governança do modelo são projetadas especificamente para LLMs gerenciados pela UiPath. Isso significa que se você desabilitar um modelo específico por meio de uma política do AI Trust Layer, a restrição se aplicará apenas à versão gerenciada pela UiPath desse modelo. Seus próprios modelos configurados do mesmo tipo permanecem inalterados.

Ao aproveitar a opção de usar seu próprio LLM ou assinatura, tenha os seguintes pontos em mente:

  • Requisitos de compatibilidade: seu LLM ou assinatura escolhida deve se alinhar à família de modelos e à versão atualmente suportada pelo produto UiPath.
  • Configuração: certifique-se de configurar e manter corretamente todos os LLMs necessários na configuração personalizada. Se algum componente estiver ausente, desatualizado ou configurado incorretamente, sua configuração personalizada pode parar de funcionar. Nesses casos, o sistema reverterá automaticamente para um LLM gerenciado pela UiPath para garantir a continuidade do serviço, a menos que os LLMs da UiPath sejam desativados por meio de uma política do Automation Ops.
  • Economia de custos: se sua configuração de LLM personalizada estiver completa, correta e atender a todos os requisitos necessários, você pode se qualificar para uma taxa de consumo reduzida.

Configuração de uma conexão LLM

As conexões de LLM dependem do Integration Service para estabelecer a conexão com seus próprios modelos. Você pode criar conexões com os seguintes provedores:

  • Azure Open AI
  • OpenAI
  • Amazon Bedrock
  • Google Vertex
  • Open AI V1 Compliant LLM – Use essa opção para se conectar a qualquer provedor de LLM cuja API siga o padrão OpenAI V1. Para obter detalhes, consulte a documentação do conector OpenAI V1 Compliant LLM.

Para configurar uma nova conexão, siga estas etapas:

  1. Crie uma conexão no Integration Service com seu provedor preferido. Para obter detalhes de autenticação específicos do conector, consulte o guia do usuário do Integration Service.

    Observação:

    Para evitar acesso não autorizado, crie a conexão do Integration Service em uma pasta privada, não compartilhada.

  2. Navegue até Administrador > AI Trust Layer > Configurações do LLM.

  3. Selecione o tenant e a pasta onde você deseja configurar a conexão.

  4. Selecione Adicionar configuração.

  5. Selecione o Produto e Recurso.

  6. Escolha como você deseja configurar:

    • Substituir assinatura de LLM da UiPath – Use sua própria conexão em vez de uma gerenciada pela UiPath.
    • Adicionar seu próprio LLM – Adicione uma configuração de LLM adicional gerenciada totalmente por você.
      Observação:

      Ao configurar seu próprio LLM, você pode opcionalmente restringir quais modelos de linguagem abrangentes estão disponíveis para uso em sua organização. Se você quiser garantir que apenas seus modelos personalizados sejam usados, você pode desabilitar modelos de terceiros gerenciados pela UiPath aplicando uma política de AI Trust Layer. Verifique a seção Modelos na documentação de políticas da AI Trust Layer.

    Dependendo do produto selecionado, apenas uma opção pode estar disponível.

  7. Configure a conexão para Substituir assinatura de LLM da UiPath:

    1. Pasta – Selecione a pasta onde a configuração será armazenada.
    2. LLM Substituível – No menu suspenso, selecione o UiPath LLM que você deseja substituir.
    3. Conector – Selecione seu conector (por exemplo, Microsoft Azure OpenAI).
    4. Conexão – Escolha sua conexão do Integration Service. Se nenhum estiver disponível, selecione Adicionar nova conexão para ser redirecionado para o Integration Service.
    5. Identificador do LLM – Insira o identificador do seu modelo.
      • Para modelos hospedados no Azure, insira o identificador do modelo.
      • Para a inferência entre regiões do AWS Bedrock, insira o ID do perfil de inferência em vez do ID do modelo.
  8. Configure a conexão para Adicionar seu próprio LLM:

    1. Pasta – Selecione a pasta onde a configuração será armazenada.
    2. Nome exibido (LLM) – Forneça um alias para seu LLM.
    3. Conector – Selecione seu conector (por exemplo, Microsoft Azure OpenAI).
    4. Conexão – Escolha sua conexão do Integration Service.
    5. Identificador do LLM – Insira o identificador do seu modelo.
      • Para modelos hospedados no Azure, insira o identificador do modelo.
      • Para a inferência entre regiões do AWS Bedrock, insira o ID do perfil de inferência em vez do ID do modelo.
  9. Selecione Configuração de teste para verificar se o modelo é acessível e atende aos critérios necessários.

    A UiPath pode confirmar a acessibilidade, verificando o modelo exato usado é sua responsabilidade.

  10. Se o teste for bem-sucedido, selecione Salvar para ativar a conexão.

Gerenciamento de conexões existentes do LLM

Você pode executar as seguintes ações em suas conexões existentes:

  • Verificar status – Verifique o status da sua conexão do Integration Service. Essa ação garante que a conexão esteja ativa e funcionando corretamente.
  • Editar – Modifique quaisquer parâmetros de sua conexão existente.
  • Desabilitar – Suspender temporariamente a conexão. Quando desabilitada, a conexão permanece visível na sua lista mas não roteia nenhuma chamada. Você pode reabilitar a conexão quando necessário.
  • Excluir - Remove permanentemente a conexão do seu sistema. Essa ação desabilita a conexão e a remove de sua lista.

Configuração de LLMs para seu produto

Cada produto é compatível com modelos de linguagem abrangentes (LLMs) e versões específicas. Use a tabela abaixo para identificar os modelos e versões compatíveis com o seu produto.

Você pode conectar seu próprio LLM usando um dos seguintes provedores: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI ou OpenAI V1 Compatível. Siga as etapas descritas na seção anterior para criar uma conexão.

Produto Recurso LLM Versão
Agentes 1 Projetar, avaliar e implantar Anthropic

anthropic.Claude-3.5-sonnet-20240620-v1:0

anthropic.Claude-3.5-sonnet-20241022-v2:0

anthropic.Claude-3.7-sonnet-20250219-v1:0

anthropic.Claude-3-aiku-20240307-v1:0

Google

Gemini-2.5-Pro

Gemini-2.5- Flash

OpenAI

gpt-4o-2024-05-13

gpt-4-2024-08-06

gpt-4-2024-11-20

gpt-4o-mini-2025-04-14

gpt-4o-mini-2024-07-18

Autopilot para todos Chat Anthropic

anthropic.Claude-3.5-sonnet-20240620-v1:0

anthropic.Claude-3.7-sonnet-20250219-v1:0

OpenAI gpt-4o-mini-2024-07-18
Atividades da GenAI Crie, teste e implante Anthropic

anthropic.Claude-3-5-sonnet-20240620-v1:0

anthropic.Claude-3-5-sonnet-20241022-v2:0

anthropic.Claude-3-7-sonnet-20250219-v1:0

anthropic.Claude-sonnet-4-20250514-v1:0

anthropic.Claude-sonnet-4-5-20250929-v1:0

anthropic.Claude-aiku-4-5-20251001-v1:0

Google

Gemini-2.0-flight-001

Gemini-2.5-Pro

Gemini-2.5- Flash

OpenAI

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

gpt-5-nano-2025-08-07

gpt-5.1-2025-11-13

gpt-4-2024-11-20

gpt-4o-mini-2024-07-18

Agente de Recuperação Recuperação do fluxo de trabalho Google Gemini-2.5- Flash
OpenAI gpt-4-2024-08-06
Automação de Interface Gráfica ScreenPlay Anthropic anthropic.Claude-sonnet-4-5-20250929-v1:0
Google Gemini-2.5- Flash
OpenAI

gpt-4.1-mini-2025-04-14

gpt-4.1-2025-04-14

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

Computer-use-preview-2025-03-11

Test Manager Autopilot (gerar e gerenciar testes) Anthropic anthropic.Claude-3.7-sonnet-20250219-v1:0 (a ser substituído por anthropic.Claude-4.5-sonnet em março de 2026)
Google

Gemini-2.5-Pro

Gemini-2.5- Flash

OpenAI gpt-4-2024-11-20

1 Ao configurar sua implantação de modelo para agentes, certifique-se de que seu LLM seja compatível com os seguintes recursos:

  • Chamada de ferramenta (função) – Seu modelo deve poder chamar ferramentas ou funções durante a execução.
  • Desabilitação de chamadas de ferramentas paralelas – Se compatível com seu provedor de LLM, o modelo deve oferecer a opção de desabilitar chamadas de ferramentas paralelas.
    Observação:

    Ao usar modelos personalizados, o sistema não pode determinar a verdadeira capacidade de tokens do modelo. Os agentes usam um limite de token de 4096 como padrão, mesmo que o modelo subjacente suporte um valor mais alto. Esse comportamento é intencional, pois a UiPath não pode inferir limites de token para implantações definidas pelo cliente.

Esta página foi útil?

Conectar

Precisa de ajuda? Suporte

Quer aprender? Academia UiPath

Tem perguntas? Fórum do UiPath

Fique por dentro das novidades