UiPath Documentation
test-cloud
latest
false

Guia do administrador do Test Cloud

Última atualização 5 de mai de 2026

Configuração de LLMs

Observação:

As configurações do LLM estão disponíveis nos seguintes planos de licenciamento:

  • Unified Pricing: Plataforma Enterprise, Plataforma Standard, Plataforma Básica, Plataforma de Teste de App Enterprise, Plataforma de Teste de Aplicativo Standard.
  • Flex: plataforma avançada, plataforma Flex padrão.

A guia Configurações do LLM permite que você integre suas assinaturas de IA existentes, mantendo a estrutura de governança fornecida pela UiPath. Você pode:

  • Substituir assinatura de LLM da UiPath: substitua as assinaturas gerenciadas pela UiPath por suas próprias, desde que correspondam à mesma família e versão do modelo que já são compatíveis com o produto da UiPath. Isso permite a troca perfeita de modelos gerenciados pela UiPath por seus modelos assinados.
  • Adicione seu próprio LLM: use qualquer LLM que atenda aos critérios de compatibilidade do produto. Para garantir uma integração suave, seu LLM escolhido deve passar por uma série de testes iniciados por meio de uma chamada de investigação antes de poder ser usado dentro do ecossistema da UiPath.

A configuração de LLMs preserva a maioria dos benefícios de governança da AI Trust Layer, incluindo a aplicação de políticas por meio do Automation Ops e logs de auditoria detalhados. No entanto, as políticas de governança do modelo são projetadas especificamente para LLMs gerenciados pela UiPath. Isso significa que se você desabilitar um modelo específico por meio de uma política do AI Trust Layer, a restrição se aplicará apenas à versão gerenciada pela UiPath desse modelo. Seus próprios modelos configurados do mesmo tipo permanecem inalterados.

Ao aproveitar a opção de usar seu próprio LLM ou assinatura, tenha os seguintes pontos em mente:

  • Requisitos de compatibilidade: seu LLM ou assinatura escolhida deve se alinhar à família de modelos e à versão atualmente suportada pelo produto UiPath.
  • Configuração: certifique-se de configurar e manter corretamente todos os LLMs necessários na configuração personalizada. Se algum componente estiver ausente, desatualizado ou configurado incorretamente, sua configuração personalizada pode parar de funcionar. Nesses casos, o sistema reverterá automaticamente para um LLM gerenciado pela UiPath para garantir a continuidade do serviço, a menos que os LLMs da UiPath sejam desativados por meio de uma política do Automation Ops.
  • Economia de custos: se sua configuração de LLM personalizada estiver completa, correta e atender a todos os requisitos necessários, você pode se qualificar para uma taxa de consumo reduzida.

Definição de uma configuração do LLM

A configuração do LLM depende do Integration Service para estabelecer a conexão com seus próprios modelos. Você pode criar conexões com os seguintes provedores:

  • Azure Open AI
  • OpenAI
  • Amazon Bedrock
  • Google Vertex
  • Open AI V1 Compliant LLM – Use essa opção para se conectar a qualquer provedor de LLM cuja API siga o padrão OpenAI V1. Para obter detalhes, consulte a documentação do conector OpenAI V1 Compliant LLM.
    Observação:

    Para usar conexões do Integration Service, você deve adicionar os intervalos de IP de saída do Integration Service à sua lista de permissões.

Para configurar uma nova conexão, siga estas etapas:

1. Crie a conexão do Integration Service.

  1. No Integration Service, crie uma conexão com seu provedor de LLM.

  2. Escolha a pasta onde a conexão será armazenada.

  3. Conclua a autenticação conforme exigido pelo conector selecionado.

    Observação:

    A pasta que você escolher controla a segurança e a visibilidade. Para evitar acesso não autorizado, crie a conexão do Integration Service em uma pasta privada, não compartilhada. No entanto, observe que a visibilidade do modelo é determinada pelo acesso a essa pasta. Se um administrador não tiver acesso a ele, a configuração do modelo associado não aparecerá na lista.

    2. Adicione uma nova configuração do LLM.

  4. Navegue até Administrador > AI Trust Layer > configurações do LLM.

  5. Selecione o Tenant.

  6. Selecione Adicionar configuração.

  7. Escolha o Produto (por exemplo, Agentes) e a Recurso (por exemplo, Projetar, Avaliar e implantar).

  8. Selecione a pasta Conexões.

    3. Configure o modelo.

    Na seção Configuração do modelo , preencha os seguintes campos:

  • Nome do LLM – Esse campo é compatível com duas opções de configuração, dependendo do seu caso de uso:
    • Selecione um modelo da lista – Escolher um modelo da lista predefinida substitui a assinatura do LLM gerenciada pela UiPath por sua própria assinatura para o mesmo modelo. Esse cenário é chamado de traga sua própria assinatura (BYOS).
    • Adicionar alias personalizado – Inserir um nome personalizado permite configurar um modelo que não está incluído na lista predefinida de modelos recomendados para esse produto. Esse cenário é chamado de Traga seu próprio modelo (BYOM).
      Observação:

      A opção Adicionar um alias personalizado está disponível apenas para produtos que são compatíveis com modelos personalizados. Por exemplo, ele não aparece para o Autopilot for Everyone, que é compatível apenas com um conjunto limitado de modelos predefinidos.

  • Tipo de API – O ponto de extremidade de API suportado pelo LLM (por exemplo, Compleções do chat do Open AI). Isso deve corresponder ao endpoint exposto por seu provedor.
  • Conector – O conector do Integration Service (por exemplo, Microsoft Azure OpenAI, Amazon Bedrock).
  • Conexão – A conexão específica do Integration Service criada anteriormente. Se nenhuma conexão estiver disponível, crie uma no Integration Service.
  • Identificador do LLM – O identificador do modelo exatamente como aparece em sua assinatura do LLM.
    • Para modelos hospedados no Azure: insira o nome/identificador da implantação do modelo.
    • Para a inferência entre regiões do AWS Bedrock: insira o ID do perfil de inferência. Você deve anexar o ID do modelo com seu código de região, por exemplo: eu.anthropic.claude-3-5-sonnet-20240620-v1:0.
    • Para outros provedores: use o nome do modelo conforme definido em sua assinatura.
Observação:

Ao configurar seu próprio LLM, você pode opcionalmente restringir quais modelos de linguagem abrangentes estão disponíveis para uso em sua organização. Se você quiser garantir que apenas seus modelos personalizados sejam usados, você pode desabilitar modelos de terceiros gerenciados pela UiPath aplicando uma política de AI Trust Layer. Verifique a seção Modelos na documentação de políticas da AI Trust Layer.

4. Valide e salve.

  1. Selecione Configuração de teste para verificar se o ponto de extremidade é acessível.

    • A plataforma valida a conectividade.
    • Garantir que o modelo correto esteja configurado continua sendo sua responsabilidade.
  2. Se a validação for bem-sucedida, selecione Salvar para ativar a configuração.

Gerenciamento de conexões existentes do LLM

Você pode executar as seguintes ações em suas conexões existentes:

  • Verificar status – Verifique o status da sua conexão do Integration Service. Essa ação garante que a conexão esteja ativa e funcionando corretamente.
  • Editar – Modifique quaisquer parâmetros de sua conexão existente.
  • Desabilitar – Suspender temporariamente a conexão. Quando desabilitada, a conexão permanece visível na sua lista mas não roteia nenhuma chamada. Você pode reabilitar a conexão quando necessário.
  • Excluir - Remove permanentemente a conexão do seu sistema. Essa ação desabilita a conexão e a remove de sua lista.

Configuração de LLMs para seu produto

Cada produto é compatível com modelos de linguagem abrangentes (LLMs) e versões específicas. Use a tabela abaixo para identificar os modelos e versões compatíveis com o seu produto.

Você pode conectar seu próprio LLM usando um dos seguintes provedores: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI ou OpenAI V1 Compatível. Siga as etapas descritas na seção anterior para criar uma conexão.

Produto Recurso LLM Versão
Agentes 1 Projetar, avaliar e implantar Anthropic

anthropic.Claude-3.5-sonnet-20240620-v1:0

anthropic.Claude-3.5-sonnet-20241022-v2:0

anthropic.Claude-3.7-sonnet-20250219-v1:0

anthropic.Claude-3-aiku-20240307-v1:0

Google

Gemini-2.5-Pro

Gemini-2.5- Flash

OpenAI

gpt-4o-2024-05-13

gpt-4-2024-08-06

gpt-4-2024-11-20

gpt-4o-mini-2025-04-14

gpt-4o-mini-2024-07-18

Autopilot Geração Google Gemini-2.5-flight-light

Gemini-2.5- Flash

Gemini-2.5-Pro

Gemini-embedding-001

Chat Anthropic anthropic.Claude-aiku-4-5-20251001-v1:0

anthropic.Claude-sonnet-4-6

anthropic.Claude-opus-4-6-v1

Google Gemini-2.5-Pro

Gemini-2.5- Flash

Gemini-3-flight-preview

Gemini-3-pro-preview

Gemini-3.1-pro-preview

Autopilot para todos Chat Anthropic

anthropic.Claude-3.5-sonnet-20240620-v1:0

anthropic.Claude-3.7-sonnet-20250219-v1:0

OpenAI gpt-4o-mini-2024-07-18
Agentes codificados Chamar LLM Anthropic

anthropic.Claude-sonnet-4-20250514-v1:0

anthropic.Claude-sonnet-4-5-20250929-v1:0

anthropic.Claude-aiku-4-5-20251001-v1:0

Google

Gemini-2.5- Flash

Gemini-2.5-Pro

OpenAI

gpt-4.1-2025-04-14

gpt-4.1-mini-2025-04-14

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

gpt-5.1-2025-11-13

Embasamento de contexto Incorporações Gemini Gemini-embedding-001
Ingestão Avançada Gemini Gemini-2.5- Flash
DeepRAG Gemini Gemini-2.5- Flash
Transformação em lote Gemini

Gemini-2.5- Flash

Gemini-2.5-flight-light

Transformação em lote com a Pesquisa na Web Gemini

Gemini-2.5- Flash

Gemini-2.5-flight-light

Atividades da GenAI Crie, teste e implante Anthropic

anthropic.Claude-3-5-sonnet-20240620-v1:0

anthropic.Claude-3-5-sonnet-20241022-v2:0

anthropic.Claude-3-7-sonnet-20250219-v1:0

anthropic.Claude-sonnet-4-20250514-v1:0

anthropic.Claude-sonnet-4-5-20250929-v1:0

anthropic.Claude-aiku-4-5-20251001-v1:0

Google

Gemini-2.0-flight-001

Gemini-2.5-Pro

Gemini-2.5- Flash

OpenAI

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

gpt-5-nano-2025-08-07

gpt-5.1-2025-11-13

gpt-4-2024-11-20

gpt-4o-mini-2024-07-18

Agente de Recuperação Recuperação do fluxo de trabalho Google Gemini-2.5- Flash
OpenAI gpt-4-2024-08-06
Automação de Interface Gráfica ScreenPlay Anthropic anthropic.Claude-sonnet-4-5-20250929-v1:0
Google Gemini-2.5- Flash
OpenAI

gpt-4.1-mini-2025-04-14

gpt-4.1-2025-04-14

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

Computer-use-preview-2025-03-11

Seletores semânticos Google Gemini-2.5- Flash
Test Manager Autopilot
  • Pesquisa do Autopilot
  • Encontrar Testes Obsoletos
  • Gerar casos de teste
  • Importar Casos de Teste
  • Gerar relatórios
  • Avaliação de requisitos
Anthropic anthropic.Claude-3.7-sonnet-20250219-v1:0 (a ser substituído por anthropic.Claude-4.5-sonnet em março de 2026)
Google

Gemini-2.5-Pro

Gemini-2.5- Flash

OpenAI gpt-4-2024-11-20

1 Ao configurar sua implantação de modelo para agentes, certifique-se de que seu LLM seja compatível com os seguintes recursos:

  • Chamada de ferramenta (função) – Seu modelo deve poder chamar ferramentas ou funções durante a execução.
  • Desabilitação de chamadas de ferramentas paralelas – Se compatível com seu provedor de LLM, o modelo deve oferecer a opção de desabilitar chamadas de ferramentas paralelas.
    Observação:

    Ao usar modelos personalizados, o sistema não pode determinar a verdadeira capacidade de tokens do modelo. Os agentes usam um limite de token de 4096 como padrão, mesmo que o modelo subjacente suporte um valor mais alto. Esse comportamento é intencional, pois a UiPath não pode inferir limites de token para implantações definidas pelo cliente.

Esta página foi útil?

Conectar

Precisa de ajuda? Suporte

Quer aprender? Academia UiPath

Tem perguntas? Fórum do UiPath

Fique por dentro das novidades