- Introdução
- Segurança de dados e conformidade
- Organizações
- Autenticação e segurança
- Licenciamento
- Sobre as licenças
- Preço unificado: estrutura do plano de licenciamento
- Ativar sua licença Enterprise
- Migre do Test Suite para o Test Cloud
- Migração de licença
- Atribuição de Licenças a Tenants
- Atribuição de licenças aos usuários
- Desalocando licenças de usuário
- Monitoring license allocation
- Atribuição excessiva de licenças
- Notificações de licenciamento
- Gerenciamento de Licenças de Usuário
- Tenants e serviços
- Contas e funções
- AI Trust Layer
- Aplicativos Externos
- Notificações
- Geração de logs
- Testes em sua organização
- Solução de problemas
- Migração para o Test Cloud

Guia do administrador do Test Cloud
Configuração de LLMs
As configurações do LLM estão disponíveis nos seguintes planos de licenciamento:
- Unified Pricing: App Test Platform Enterprise, App Test Platform Standard.
A guia Configurações do LLM permite que você integre suas assinaturas de IA existentes, mantendo a estrutura de governança fornecida pela UiPath. Você pode:
- Substituir assinatura de LLM da UiPath: substitua as assinaturas gerenciadas pela UiPath por suas próprias, desde que correspondam à mesma família e versão do modelo que já são compatíveis com o produto da UiPath. Isso permite a troca perfeita de modelos gerenciados pela UiPath por seus modelos assinados.
- Adicione seu próprio LLM: use qualquer LLM que atenda aos critérios de compatibilidade do produto. Para garantir uma integração suave, seu LLM escolhido deve passar por uma série de testes iniciados por meio de uma chamada de investigação antes de poder ser usado dentro do ecossistema da UiPath.
A configuração de LLMs preserva a maioria dos benefícios de governança da AI Trust Layer, incluindo a aplicação de políticas por meio do Automation Ops e logs de auditoria detalhados. No entanto, as políticas de governança do modelo são projetadas especificamente para LLMs gerenciados pela UiPath. Isso significa que se você desabilitar um modelo específico por meio de uma política do AI Trust Layer, a restrição se aplicará apenas à versão gerenciada pela UiPath desse modelo. Seus próprios modelos configurados do mesmo tipo permanecem inalterados.
Ao aproveitar a opção de usar seu próprio LLM ou assinatura, tenha os seguintes pontos em mente:
- Requisitos de compatibilidade: seu LLM ou assinatura escolhida deve se alinhar à família de modelos e à versão atualmente suportada pelo produto UiPath.
- Configuração: certifique-se de configurar e manter corretamente todos os LLMs necessários na configuração personalizada. Se algum componente estiver ausente, desatualizado ou configurado incorretamente, sua configuração personalizada pode parar de funcionar. Nesses casos, o sistema reverterá automaticamente para um LLM gerenciado pela UiPath para garantir a continuidade do serviço, a menos que os LLMs da UiPath sejam desativados por meio de uma política do Automation Ops.
- Economia de custos: se sua configuração de LLM personalizada estiver completa, correta e atender a todos os requisitos necessários, você pode se qualificar para uma taxa de consumo reduzida.
Configuração de uma conexão LLM
As conexões de LLM dependem do Integration Service para estabelecer a conexão com seus próprios modelos. Você pode criar conexões com os seguintes provedores:
- Azure Open AI
- OpenAI
- Amazon Bedrock
- Google Vertex
- Open AI V1 Compliant LLM – Use essa opção para se conectar a qualquer provedor de LLM cuja API siga o padrão OpenAI V1. Para obter detalhes, consulte a documentação do conector OpenAI V1 Compliant LLM.
Para configurar uma nova conexão, siga estas etapas:
-
Crie uma conexão no Integration Service com seu provedor preferido. Para obter detalhes de autenticação específicos do conector, consulte o guia do usuário do Integration Service.
Observação:Para evitar acesso não autorizado, crie a conexão do Integration Service em uma pasta privada, não compartilhada.
-
Navegue até Administrador > AI Trust Layer > Configurações do LLM.
-
Selecione o tenant e a pasta onde você deseja configurar a conexão.
-
Selecione Adicionar configuração.
-
Selecione o Produto e Recurso.
-
Escolha como você deseja configurar:
- Substituir assinatura de LLM da UiPath – Use sua própria conexão em vez de uma gerenciada pela UiPath.
- Adicionar seu próprio LLM – Adicione uma configuração de LLM adicional gerenciada totalmente por você.
Observação:
Ao configurar seu próprio LLM, você pode opcionalmente restringir quais modelos de linguagem abrangentes estão disponíveis para uso em sua organização. Se você quiser garantir que apenas seus modelos personalizados sejam usados, você pode desabilitar modelos de terceiros gerenciados pela UiPath aplicando uma política de AI Trust Layer. Verifique a seção Modelos na documentação de políticas da AI Trust Layer.
Dependendo do produto selecionado, apenas uma opção pode estar disponível.
-
Configure a conexão para Substituir assinatura de LLM da UiPath:
- Pasta – Selecione a pasta onde a configuração será armazenada.
- LLM Substituível – No menu suspenso, selecione o UiPath LLM que você deseja substituir.
- Conector – Selecione seu conector (por exemplo, Microsoft Azure OpenAI).
- Conexão – Escolha sua conexão do Integration Service. Se nenhum estiver disponível, selecione Adicionar nova conexão para ser redirecionado para o Integration Service.
- Identificador do LLM – Insira o identificador do seu modelo.
- Para modelos hospedados no Azure, insira o identificador do modelo.
- Para a inferência entre regiões do AWS Bedrock, insira o ID do perfil de inferência em vez do ID do modelo.
-
Configure a conexão para Adicionar seu próprio LLM:
- Pasta – Selecione a pasta onde a configuração será armazenada.
- Nome exibido (LLM) – Forneça um alias para seu LLM.
- Conector – Selecione seu conector (por exemplo, Microsoft Azure OpenAI).
- Conexão – Escolha sua conexão do Integration Service.
- Identificador do LLM – Insira o identificador do seu modelo.
- Para modelos hospedados no Azure, insira o identificador do modelo.
- Para a inferência entre regiões do AWS Bedrock, insira o ID do perfil de inferência em vez do ID do modelo.
-
Selecione Configuração de teste para verificar se o modelo é acessível e atende aos critérios necessários.
A UiPath pode confirmar a acessibilidade, verificando o modelo exato usado é sua responsabilidade.
-
Se o teste for bem-sucedido, selecione Salvar para ativar a conexão.
Gerenciamento de conexões existentes do LLM
Você pode executar as seguintes ações em suas conexões existentes:
- Verificar status – Verifique o status da sua conexão do Integration Service. Essa ação garante que a conexão esteja ativa e funcionando corretamente.
- Editar – Modifique quaisquer parâmetros de sua conexão existente.
- Desabilitar – Suspender temporariamente a conexão. Quando desabilitada, a conexão permanece visível na sua lista mas não roteia nenhuma chamada. Você pode reabilitar a conexão quando necessário.
- Excluir - Remove permanentemente a conexão do seu sistema. Essa ação desabilita a conexão e a remove de sua lista.
Configuração de LLMs para seu produto
Cada produto é compatível com modelos de linguagem abrangentes (LLMs) e versões específicas. Use a tabela abaixo para identificar os modelos e versões compatíveis com o seu produto.
Você pode conectar seu próprio LLM usando um dos seguintes provedores: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI ou OpenAI V1 Compatível. Siga as etapas descritas na seção anterior para criar uma conexão.
| Produto | Recurso | LLM | Versão |
|---|---|---|---|
| Agentes 1 | Projetar, avaliar e implantar | Anthropic | anthropic.Claude-3.5-sonnet-20240620-v1:0 anthropic.Claude-3.5-sonnet-20241022-v2:0 anthropic.Claude-3.7-sonnet-20250219-v1:0 anthropic.Claude-3-aiku-20240307-v1:0 |
| Gemini-2.5-Pro Gemini-2.5- Flash | |||
| OpenAI | gpt-4o-2024-05-13 gpt-4-2024-08-06 gpt-4-2024-11-20 gpt-4o-mini-2025-04-14 gpt-4o-mini-2024-07-18 | ||
| Autopilot para todos | Chat | Anthropic | anthropic.Claude-3.5-sonnet-20240620-v1:0 anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| Atividades da GenAI | Crie, teste e implante | Anthropic | anthropic.Claude-3-5-sonnet-20240620-v1:0 anthropic.Claude-3-5-sonnet-20241022-v2:0 anthropic.Claude-3-7-sonnet-20250219-v1:0 anthropic.Claude-sonnet-4-20250514-v1:0 anthropic.Claude-sonnet-4-5-20250929-v1:0 anthropic.Claude-aiku-4-5-20251001-v1:0 |
| Gemini-2.0-flight-001 Gemini-2.5-Pro Gemini-2.5- Flash | |||
| OpenAI | gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5-nano-2025-08-07 gpt-5.1-2025-11-13 gpt-4-2024-11-20 gpt-4o-mini-2024-07-18 | ||
| Agente de Recuperação | Recuperação do fluxo de trabalho | Gemini-2.5- Flash | |
| OpenAI | gpt-4-2024-08-06 | ||
| Automação de Interface Gráfica | ScreenPlay | Anthropic | anthropic.Claude-sonnet-4-5-20250929-v1:0 |
| Gemini-2.5- Flash | |||
| OpenAI | gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 Computer-use-preview-2025-03-11 | ||
| Test Manager | Autopilot (gerar e gerenciar testes) | Anthropic | anthropic.Claude-3.7-sonnet-20250219-v1:0 (a ser substituído por anthropic.Claude-4.5-sonnet em março de 2026) |
| Gemini-2.5-Pro Gemini-2.5- Flash | |||
| OpenAI | gpt-4-2024-11-20 |
1 Ao configurar sua implantação de modelo para agentes, certifique-se de que seu LLM seja compatível com os seguintes recursos:
- Chamada de ferramenta (função) – Seu modelo deve poder chamar ferramentas ou funções durante a execução.
- Desabilitação de chamadas de ferramentas paralelas – Se compatível com seu provedor de LLM, o modelo deve oferecer a opção de desabilitar chamadas de ferramentas paralelas.
Observação:
Ao usar modelos personalizados, o sistema não pode determinar a verdadeira capacidade de tokens do modelo. Os agentes usam um limite de token de 4096 como padrão, mesmo que o modelo subjacente suporte um valor mais alto. Esse comportamento é intencional, pois a UiPath não pode inferir limites de token para implantações definidas pelo cliente.