- Introdução
- Segurança de dados e conformidade
- Organizações
- Autenticação e segurança
- Licenciamento
- Sobre as licenças
- Preço unificado: estrutura do plano de licenciamento
- Flex: estrutura do plano de licenciamento
- Ativar sua licença Enterprise
- Fazendo o upgrade e downgrade de licenças
- Migração de licença
- Solicitando uma Avaliação de Serviço
- Atribuição de Licenças a Tenants
- Atribuição de licenças aos usuários
- Desalocando licenças de usuário
- Monitoring license allocation
- Atribuição excessiva de licenças
- Notificações de licenciamento
- Gerenciamento de Licenças de Usuário
- Tenants e serviços
- Contas e funções
- Testes em sua organização
- AI Trust Layer
- Aplicativos Externos
- Notificações
- Geração de logs
- Solução de problemas
- Migraçlão para o Automation Cloud

Guia de administração do Automation Cloud
- Unified Pricing: Plataforma Enterprise, Plataforma Standard, Plataforma Básica, Plataforma de Teste de App Enterprise, Plataforma de Teste de Aplicativo Standard.
- Flex: plataforma avançada, plataforma Flex padrão.
A guia Configurações do LLM permite que você integre suas assinaturas de IA existentes enquanto mantém a estrutura de governança fornecida pela UiPath. Você pode:
- Substituir assinatura de LLM da UiPath: substitua as assinaturas gerenciadas pela UiPath por suas próprias, desde que correspondam à mesma família e versão do modelo que já são compatíveis com o produto da UiPath. Isso permite a troca perfeita de modelos gerenciados pela UiPath por seus modelos assinados.
- Adicione seu próprio LLM: use qualquer LLM que atenda aos critérios de compatibilidade do produto. Para garantir uma integração suave, seu LLM escolhido deve passar por uma série de testes iniciados por meio de uma chamada de investigação antes de poder ser usado dentro do ecossistema da UiPath.
A configuração de LLMs preserva a maioria dos benefícios de governança da AI Trust Layer, incluindo a aplicação de políticas por meio do Automation Ops e logs de auditoria detalhados. No entanto, as políticas de governança do modelo são projetadas especificamente para LLMs gerenciados pela UiPath. Isso significa que se você desabilitar um modelo específico por meio de uma política do AI Trust Layer, a restrição se aplicará apenas à versão gerenciada pela UiPath desse modelo. Seus próprios modelos configurados do mesmo tipo permanecem inalterados.
Ao aproveitar a opção de usar seu próprio LLM ou assinatura, tenha os seguintes pontos em mente:
- Requisitos de compatibilidade: seu LLM ou assinatura escolhida deve se alinhar à família de modelos e à versão atualmente suportada pelo produto UiPath.
-
Configuração: certifique-se de configurar e manter corretamente todos os LLMs necessários na configuração personalizada. Se algum componente estiver ausente, desatualizado ou configurado incorretamente, sua configuração personalizada pode parar de funcionar. Nesses casos, o sistema reverterá automaticamente para um LLM gerenciado pela UiPath para garantir a continuidade do serviço, a menos que os LLMs da UiPath sejam desativados por meio de uma política do Automation Ops.
-
Economia de custos: se sua configuração de LLM personalizada estiver completa, correta e atender a todos os requisitos necessários, você pode se qualificar para uma taxa de consumo reduzida.
- Azure Open AI
- OpenAI
- Amazon Bedrock
- Google Vertex
- LLM em conformidade com Open AI V1 – Use essa opção para se conectar a qualquer provedor LLM cuja API siga o padrão OpenAI V1. Para obter detalhes, consulte a documentação do conector LLM em conformidade com o OpenAI V1.
Para configurar uma nova conexão, siga estas etapas:
- No Integration Service, crie uma conexão com seu provedor de LLM.
- Escolha a pasta onde a conexão será armazenada.
- Conclua a autenticação conforme exigido pelo conector selecionado.
- Navegue até Administrador > AI Trust Layer > configurações do LLM.
- Selecione o Tenant.
- Selecione Adicionar configuração.
- Escolha o Produto (por exemplo, Agentes) e a Recurso (por exemplo, Projetar, Avaliar e implantar).
- Selecione a pasta Conexões.
3. Configure o modelo.
Na seção Configuração do modelo , preencha os seguintes campos:
- Nome do LLM – Esse campo é compatível com duas opções de configuração, dependendo do seu caso de uso:
- Selecione um modelo da lista – Escolher um modelo da lista predefinida substitui a assinatura do LLM gerenciada pela UiPath por sua própria assinatura para o mesmo modelo. Esse cenário é chamado de traga sua própria assinatura (BYOS).
- Adicionar alias personalizado – Inserir um nome personalizado permite configurar um modelo que não está incluído na lista predefinida de modelos recomendados para esse produto. Esse cenário é chamado de Traga seu próprio modelo (BYOM).
Observação: a opção Adicionar um alias personalizado está disponível apenas para produtos que oferecem suporte a modelos personalizados. Por exemplo, ele não aparece para o Autopilot for Everyone, que é compatível apenas com um conjunto limitado de modelos predefinidos.
- Tipo de API – O ponto de extremidade de API suportado pelo LLM (por exemplo, Compleções do chat do Open AI). Isso deve corresponder ao endpoint exposto por seu provedor.
- Conector – O conector do Integration Service (por exemplo, Microsoft Azure OpenAI, Amazon Bedrock).
- Conexão – A conexão específica do Integration Service criada anteriormente. Se nenhuma conexão estiver disponível, crie uma no Integration Service.
- Identificador do LLM – O identificador do modelo exatamente como aparece em sua assinatura do LLM.
- Para modelos hospedados no Azure: insira o nome/identificador da implantação do modelo.
- Para a inferência entre regiões do AWS Bedrock: insira o ID do perfil de inferência.
- Para outros provedores: use o nome do modelo conforme definido em sua assinatura.
4. Valide e salve.
- Selecione Configuração de teste para verificar se o ponto de extremidade é acessível.
- A plataforma valida a conectividade.
- Garantir que o modelo correto esteja configurado continua sendo sua responsabilidade.
- Se a validação for bem-sucedida, selecione Salvar para ativar a configuração.
Você pode executar as seguintes ações em suas conexões existentes:
- Verificar status – Verifique o status da sua conexão do Integration Service. Essa ação garante que a conexão esteja ativa e funcionando corretamente.
- Editar – Modifique qualquer parâmetro da sua conexão existente.
- Desabilitar - Suspender temporariamente a conexão. Quando desabilitada, a conexão permanece visível na sua lista, mas não roteia nenhuma chamada. Você pode reabilitar a conexão quando necessário.
- Excluir - Remove permanentemente a conexão do seu sistema. Essa ação desabilita a conexão e a remove da sua lista.
Cada produto é compatível com modelos de linguagem abrangentes (LLMs) e versões específicas. Use a tabela abaixo para identificar os modelos e versões compatíveis com o seu produto.
Você pode conectar seu próprio LLM usando um dos seguintes provedores: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI ou OpenAI V1 Compatível. Siga as etapas descritas na seção anterior para criar uma conexão.
| Produto | Recurso | LLM | Versão |
|---|---|---|---|
| Agentes1 | Projetar, avaliar e implantar | Anthropic |
anthropic.Claude-3.5-sonnet-20240620-v1:0 anthropic.Claude-3.5-sonnet-20241022-v2:0 anthropic.Claude-3.7-sonnet-20250219-v1:0 anthropic.Claude-3-aiku-20240307-v1:0 |
| OpenAI |
gpt-4o-2024-05-13 gpt-4-2024-08-06 gpt-4-2024-11-20 gpt-4o-mini-2025-04-14 gpt-4o-mini-2024-07-18 | ||
| Autopilot para todos | Chat | Anthropic |
anthropic.Claude-3.5-sonnet-20240620-v1:0 anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| Agentes codificados | Chamar LLM | Anthropic |
anthropic.Claude-sonnet-4-20250514-v1:0 anthropic.Claude-sonnet-4-5-20250929-v1:0 anthropic.Claude-aiku-4-5-20251001-v1:0 |
|
Gemini-2.5- Flash Gemini-2.5-Pro | |||
| OpenAI |
gpt-4.1-2025-04-14 gpt-4.1-mini-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5.1-2025-11-13 | ||
| Atividades da GenAI | Crie, teste e implante | Anthropic |
anthropic.Claude-3-5-sonnet-20240620-v1:0 anthropic.Claude-3-5-sonnet-20241022-v2:0 anthropic.Claude-3-7-sonnet-20250219-v1:0 anthropic.Claude-sonnet-4-20250514-v1:0 anthropic.Claude-sonnet-4-5-20250929-v1:0 anthropic.Claude-aiku-4-5-20251001-v1:0 |
|
Gemini-2.0-flight-001 Gemini-2.5-Pro Gemini-2.5- Flash | |||
| OpenAI |
gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5-nano-2025-08-07 gpt-5.1-2025-11-13 gpt-4-2024-11-20 gpt-4o-mini-2024-07-18 | ||
| Agente de Recuperação | Recuperação do fluxo de trabalho | Gemini-2.5- Flash | |
| OpenAI | gpt-4-2024-08-06 | ||
| Automação de Interface Gráfica | ScreenPlay | Anthropic | anthropic.Claude-sonnet-4-5-20250929-v1:0 |
| Gemini-2.5- Flash | |||
| OpenAI |
gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 Computer-use-preview-2025-03-11 | ||
| Seletores semânticos | Gemini-2.5- Flash | ||
| Test Manager | Autopilot
| Anthropic | anthropic.Claude-3.7-sonnet-20250219-v1:0 (a ser substituído por anthropic.Claude-4.5-sonnet em março de 2026) |
|
Gemini-2.5-Pro Gemini-2.5- Flash | |||
| OpenAI | gpt-4-2024-11-20 |
- Chamada da ferramenta (função) - Seu modelo deve poder chamar ferramentas ou funções durante a execução.
- Desabilitando chamadas de ferramentas paralelas - Se for compatível com seu provedor LLM, o modelo deve oferecer a opção de desabilitar chamadas de ferramentas paralelas.
Observação: ao usar modelos personalizados, o sistema não pode determinar a verdadeira capacidade de token do modelo. Os agentes usam um limite de token de 4096 como padrão, mesmo que o modelo subjacente suporte um valor mais alto. Esse comportamento é intencional, pois a UiPath não pode inferir limites de token para implantações definidas pelo cliente.