- Introdução
- Gerenciamento do projeto
- Documentos
- Trabalhando com análise de impacto de alterações
- Criar casos de teste
- Atribuição de casos de teste a requisitos
- Casos de teste de clonagem
- Exportação de casos de teste
- Vinculação de casos de teste no Studio ao Test Manager
- Delete test cases
- Casos de teste manuais
- Importação de casos de teste manuais
- Documentar casos de teste com o Task Capture
- Parâmetros
- Enabling governance at project level
- Disabling governance at project level
- Enabling governance at test-case level
- Disabling governance at test-case level
- Managing approvers for governed test cases
- Managing governed test cases in the In Work state
- Managing governeed test cases in the In Review state
- Managing governed objects in the Signed state
- Managing comments for governed test cases
- Aplicação de filtros e visualizações
- Importando conjuntos de testes do Orchestrator
- Creating test sets
- Adição de casos de teste a um conjunto de testes
- Atribuição de usuários padrão na execução do conjunto de testes
- Habilitando a cobertura de atividade
- Habilitação do Healing Agent
- Configuração de conjuntos de testes para pastas e robôs de execução específicos
- Substituindo parâmetros
- Clonagem de conjuntos de teste
- Exportação de conjuntos de testes
- Aplicação de filtros e visualizações
- Execução de testes manuais
- Execução de testes automatizados
- Execução de casos de teste sem um conjunto de testes
- Execução de testes mistos
- Criação de execuções pendentes
- Aplicação de uma ordem de execução
- Reexecutando execuções de teste
- Agendamento de execuções
- Solução de problemas de execuções automatizadas
- Perguntas frequentes - Paridade de funcionalidades - Test Manager versus Orchestrator
- Criação de testes automatizados
- Execução de cenários de desempenho
- Limitações conhecidas para testes de desempenho
- Melhores práticas para testes de desempenho
- Solução de problemas de testes de desempenho
- Testes de acessibilidade para o Test Cloud
- Pesquisa com o Autopilot
- Operações e utilitários do projeto
- Configurações Test Manager
- Integração da ferramentas ALM
- Integração do API
- Solução de problemas

Guia do usuário do Test Manager
Cloud, Serverless Robots podem ser executados por um máximo de 60 minutos por teste. Os robôs on-premises podem exceder esse limite.
-
Máximo de trabalhos simultâneos:
Até 500 trabalhos podem ser executados simultaneamente usando Serverless Robots.
-
Impacto nos usuários virtuais (VUs):
O número de usuários virtuais alcançáveis depende da Multiplexação (várias VUs por trabalho).
Por exemplo, com um fator de atividade 4, um cenário pode ser dimensionado para até 2.000 usuários virtuais simultâneos.
Os recursos de Multiplexação para Serverless Robots são detectados automaticamente durante o teste de runtime, e o fator resultante é relatado nos logs de aplicativos.
Ao contrário das máquinas no local, onde o fator de Multiplexação pode ser substituído manualmente, isso não é suportado para robôs Serverless.
-
Restrições da VPN:
Ao usar uma VPN, a simultaneidade efetiva depende da capacidade da VPN ou do gateway.
-
Limite padrão: ~250 trabalhos simultâneos
-
O limite real pode variar com base no SKU do gateway e na capacidade da infraestrutura.
-
Se for necessária uma simultaneidade maior, os clientes devem entrar em contato com o suporte da UiPath ou sua equipe de contas para discutir as opções de dimensionamento da VPN.
-
-
Duração da execução:
Serverless Robots são limitados a 60 minutos por execução
HTTP WebRequest) e automações de Área de Trabalho. Por exemplo, o Integration Service ou automações codificadas ainda não são compatíveis.
As execuções de Testes de desempenho em máquinas locais não são compatíveis com automação de navegador no modo Chrome Incógnito ou no modo Edge InPrivate.
Essa limitação é causada por restrições de segurança do navegador que exigem que as extensões sejam habilitadas manualmente para navegação privada. Embora a extensão de navegador da UiPath possa ser instalada (por exemplo, por meio da Política de grupo), ela não pode ser habilitada automaticamente no modo anônimo, o que impede que a automação interaja com o navegador durante a execução do teste.
Além disso, o Teste de desempenho cria novos diretórios de usuário do navegador para cada execução. Habilitar a extensão para o modo anônimo exigiria configuração manual para cada um desses diretórios, tornando-a imprazoável para cenários automatizados. Para obter mais informações, consulte a seção Alternativa para habilitar o modo anônimo da documentação do Studio.
Essa limitação se aplica apenas a ambientes locais.
Em ambientes sem servidor, o modo Anônimo é compatível porque a configuração do navegador é totalmente gerenciada pela UiPath.
Solução alternativa: execute testes no modo padrão do navegador.
Os Testes de desempenho criam seu próprio perfil e diretório de navegador dedicados, garantindo que não interfira com o perfil padrão do usuário. Essa configuração permite que os testes sejam executados em um ambiente restrito, semelhante a um modo anônimo. Após a execução, todos os diretórios do navegador criados para testes são limpos, sem deixar dados restantes.
- Lacunas de infraestrutura: o suporte
ACR-VMe o provisionamento elástico ainda não estão disponíveis, portanto, o dimensionamento automático de recursos não é possível no momento. - Acesso à API: o acesso programático direto a dados de teste de desempenho brutos ainda não é suportado.
- Comparação histórica: ainda não é possível comparar os resultados de testes de diferentes execuções históricas.
- Suporte ao Autopilot e a agentes: o suporte ao Autopilot e a agentes não estão disponíveis na versão atual.
- Gravações exibidas em detalhes: a gravação pode ser ativada e visualizada apenas no Orchestrator.