automation-cloud
latest
false
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo. A localização de um conteúdo recém-publicado pode levar de 1 a 2 semanas para ficar disponível.
UiPath logo, featuring letters U and I in white

Guia de administração do Automation Cloud

Última atualização 16 de mar de 2026

Configuração de LLMs

Observação: As configurações do LLM estão disponíveis nos seguintes planos de licenciamento:
  • Unified Pricing: Plataforma Enterprise, Plataforma Standard, Plataforma Básica, Plataforma de Teste de App Enterprise, Plataforma de Teste de Aplicativo Standard.
  • Flex: plataforma avançada, plataforma Flex padrão.

A guia Configurações do LLM permite que você integre suas assinaturas de IA existentes enquanto mantém a estrutura de governança fornecida pela UiPath. Você pode:

  • Substituir assinatura de LLM da UiPath: substitua as assinaturas gerenciadas pela UiPath por suas próprias, desde que correspondam à mesma família e versão do modelo que já são compatíveis com o produto da UiPath. Isso permite a troca perfeita de modelos gerenciados pela UiPath por seus modelos assinados.
  • Adicione seu próprio LLM: use qualquer LLM que atenda aos critérios de compatibilidade do produto. Para garantir uma integração suave, seu LLM escolhido deve passar por uma série de testes iniciados por meio de uma chamada de investigação antes de poder ser usado dentro do ecossistema da UiPath.

A configuração de LLMs preserva a maioria dos benefícios de governança da AI Trust Layer, incluindo a aplicação de políticas por meio do Automation Ops e logs de auditoria detalhados. No entanto, as políticas de governança do modelo são projetadas especificamente para LLMs gerenciados pela UiPath. Isso significa que se você desabilitar um modelo específico por meio de uma política do AI Trust Layer, a restrição se aplicará apenas à versão gerenciada pela UiPath desse modelo. Seus próprios modelos configurados do mesmo tipo permanecem inalterados.

Ao aproveitar a opção de usar seu próprio LLM ou assinatura, tenha os seguintes pontos em mente:

  • Requisitos de compatibilidade: seu LLM ou assinatura escolhida deve se alinhar à família de modelos e à versão atualmente suportada pelo produto UiPath.
  • Configuração: certifique-se de configurar e manter corretamente todos os LLMs necessários na configuração personalizada. Se algum componente estiver ausente, desatualizado ou configurado incorretamente, sua configuração personalizada pode parar de funcionar. Nesses casos, o sistema reverterá automaticamente para um LLM gerenciado pela UiPath para garantir a continuidade do serviço, a menos que os LLMs da UiPath sejam desativados por meio de uma política do Automation Ops.

  • Economia de custos: se sua configuração de LLM personalizada estiver completa, correta e atender a todos os requisitos necessários, você pode se qualificar para uma taxa de consumo reduzida.

Definição de uma configuração do LLM

A configuração do LLM depende do Integration Service para estabelecer a conexão com seus próprios modelos. Você pode criar conexões com os seguintes provedores:
Observação: para usar conexões do Integration Service, você deve adicionar os intervalos de IPs de saída do Integration Service à sua lista de permissões.

Para configurar uma nova conexão, siga estas etapas:

1. Crie a conexão do Integration Service.
  1. No Integration Service, crie uma conexão com seu provedor de LLM.
  2. Escolha a pasta onde a conexão será armazenada.
  3. Conclua a autenticação conforme exigido pelo conector selecionado.
Observação: a pasta que você escolher controla a segurança e a visibilidade. Para evitar acesso não autorizado, crie a conexão do Integration Service em uma pasta privada, não compartilhada. No entanto, observe que a visibilidade do modelo é determinada pelo acesso a essa pasta. Se um administrador não tiver acesso a ele, a configuração do modelo associado não aparecerá na lista.
2. Adicione uma nova configuração do LLM.
  1. Navegue até Administrador > AI Trust Layer > configurações do LLM.
  2. Selecione o Tenant.
  3. Selecione Adicionar configuração.
  4. Escolha o Produto (por exemplo, Agentes) e a Recurso (por exemplo, Projetar, Avaliar e implantar).
  5. Selecione a pasta Conexões.

3. Configure o modelo.

Na seção Configuração do modelo , preencha os seguintes campos:

  • Nome do LLM – Esse campo é compatível com duas opções de configuração, dependendo do seu caso de uso:
    • Selecione um modelo da lista – Escolher um modelo da lista predefinida substitui a assinatura do LLM gerenciada pela UiPath por sua própria assinatura para o mesmo modelo. Esse cenário é chamado de traga sua própria assinatura (BYOS).
    • Adicionar alias personalizado – Inserir um nome personalizado permite configurar um modelo que não está incluído na lista predefinida de modelos recomendados para esse produto. Esse cenário é chamado de Traga seu próprio modelo (BYOM).
      Observação: a opção Adicionar um alias personalizado está disponível apenas para produtos que oferecem suporte a modelos personalizados. Por exemplo, ele não aparece para o Autopilot for Everyone, que é compatível apenas com um conjunto limitado de modelos predefinidos.
  • Tipo de API – O ponto de extremidade de API suportado pelo LLM (por exemplo, Compleções do chat do Open AI). Isso deve corresponder ao endpoint exposto por seu provedor.
  • Conector – O conector do Integration Service (por exemplo, Microsoft Azure OpenAI, Amazon Bedrock).
  • Conexão – A conexão específica do Integration Service criada anteriormente. Se nenhuma conexão estiver disponível, crie uma no Integration Service.
  • Identificador do LLM – O identificador do modelo exatamente como aparece em sua assinatura do LLM.
    • Para modelos hospedados no Azure: insira o nome/identificador da implantação do modelo.
    • Para a inferência entre regiões do AWS Bedrock: insira o ID do perfil de inferência.
    • Para outros provedores: use o nome do modelo conforme definido em sua assinatura.
Observação: ao configurar seu próprio LLM, você pode opcionalmente restringir quais modelos de linguagem abrangentes estão disponíveis para uso em sua organização. Se você quiser garantir que apenas seus modelos personalizados sejam usados, você pode desabilitar modelos de terceiros gerenciados pela UiPath aplicando uma política de AI Trust Layer. Verifique a seção Modelos na documentação de políticas da AI Trust Layer.

4. Valide e salve.

  1. Selecione Configuração de teste para verificar se o ponto de extremidade é acessível.
    • A plataforma valida a conectividade.
    • Garantir que o modelo correto esteja configurado continua sendo sua responsabilidade.
  2. Se a validação for bem-sucedida, selecione Salvar para ativar a configuração.


Gerenciamento de conexões existentes do LLM

Você pode executar as seguintes ações em suas conexões existentes:

  • Verificar status – Verifique o status da sua conexão do Integration Service. Essa ação garante que a conexão esteja ativa e funcionando corretamente.
  • Editar – Modifique qualquer parâmetro da sua conexão existente.
  • Desabilitar - Suspender temporariamente a conexão. Quando desabilitada, a conexão permanece visível na sua lista, mas não roteia nenhuma chamada. Você pode reabilitar a conexão quando necessário.
  • Excluir - Remove permanentemente a conexão do seu sistema. Essa ação desabilita a conexão e a remove da sua lista.

Configuração de LLMs para seu produto

Cada produto é compatível com modelos de linguagem abrangentes (LLMs) e versões específicas. Use a tabela abaixo para identificar os modelos e versões compatíveis com o seu produto.

Você pode conectar seu próprio LLM usando um dos seguintes provedores: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI ou OpenAI V1 Compatível. Siga as etapas descritas na seção anterior para criar uma conexão.

ProdutoRecursoLLMVersão
Agentes1Projetar, avaliar e implantarAnthropic

anthropic.Claude-3.5-sonnet-20240620-v1:0

anthropic.Claude-3.5-sonnet-20241022-v2:0

anthropic.Claude-3.7-sonnet-20250219-v1:0

anthropic.Claude-3-aiku-20240307-v1:0

OpenAI

gpt-4o-2024-05-13

gpt-4-2024-08-06

gpt-4-2024-11-20

gpt-4o-mini-2025-04-14

gpt-4o-mini-2024-07-18

Autopilot para todosChatAnthropic

anthropic.Claude-3.5-sonnet-20240620-v1:0

anthropic.Claude-3.7-sonnet-20250219-v1:0

OpenAIgpt-4o-mini-2024-07-18
Agentes codificadosChamar LLMAnthropic

anthropic.Claude-sonnet-4-20250514-v1:0

anthropic.Claude-sonnet-4-5-20250929-v1:0

anthropic.Claude-aiku-4-5-20251001-v1:0

Google

Gemini-2.5- Flash

Gemini-2.5-Pro

OpenAI

gpt-4.1-2025-04-14

gpt-4.1-mini-2025-04-14

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

gpt-5.1-2025-11-13

Atividades da GenAICrie, teste e implanteAnthropic

anthropic.Claude-3-5-sonnet-20240620-v1:0

anthropic.Claude-3-5-sonnet-20241022-v2:0

anthropic.Claude-3-7-sonnet-20250219-v1:0

anthropic.Claude-sonnet-4-20250514-v1:0

anthropic.Claude-sonnet-4-5-20250929-v1:0

anthropic.Claude-aiku-4-5-20251001-v1:0

Google

Gemini-2.0-flight-001

Gemini-2.5-Pro

Gemini-2.5- Flash

OpenAI

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

gpt-5-nano-2025-08-07

gpt-5.1-2025-11-13

gpt-4-2024-11-20

gpt-4o-mini-2024-07-18

Agente de RecuperaçãoRecuperação do fluxo de trabalhoGoogleGemini-2.5- Flash
OpenAIgpt-4-2024-08-06
Automação de Interface GráficaScreenPlayAnthropicanthropic.Claude-sonnet-4-5-20250929-v1:0
GoogleGemini-2.5- Flash
OpenAI

gpt-4.1-mini-2025-04-14

gpt-4.1-2025-04-14

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

Computer-use-preview-2025-03-11

Seletores semânticosGoogleGemini-2.5- Flash
Test ManagerAutopilot
  • Pesquisa do Autopilot
  • Encontrar Testes Obsoletos
  • Gerar casos de teste
  • Importar Casos de Teste
  • Gerar relatórios
  • Avaliação de requisitos
Anthropicanthropic.Claude-3.7-sonnet-20250219-v1:0 (a ser substituído por anthropic.Claude-4.5-sonnet em março de 2026)
Google

Gemini-2.5-Pro

Gemini-2.5- Flash

OpenAIgpt-4-2024-11-20
1 Ao configurar sua implantação de modelo para agentes, certifique-se de que seu LLM seja compatível com os seguintes recursos:
  • Chamada da ferramenta (função) - Seu modelo deve poder chamar ferramentas ou funções durante a execução.
  • Desabilitando chamadas de ferramentas paralelas - Se for compatível com seu provedor LLM, o modelo deve oferecer a opção de desabilitar chamadas de ferramentas paralelas.
    Observação: ao usar modelos personalizados, o sistema não pode determinar a verdadeira capacidade de token do modelo. Os agentes usam um limite de token de 4096 como padrão, mesmo que o modelo subjacente suporte um valor mais alto. Esse comportamento é intencional, pois a UiPath não pode inferir limites de token para implantações definidas pelo cliente.

Esta página foi útil?

Conectar

Precisa de ajuda? Suporte

Quer aprender? Academia UiPath

Tem perguntas? Fórum do UiPath

Fique por dentro das novidades