- Introdução
- Gerenciamento do projeto
- Documentos
- Trabalhando com análise de impacto de alterações
- Criar casos de teste
- Assigning test cases to requirements
- Casos de teste de clonagem
- Exportação de casos de teste
- Linking test cases in Studio to Test Manager
- Delete test cases
- Casos de teste manuais
- Importação de casos de teste manuais
- Documentar casos de teste com o Task Capture
- Parâmetros
- Aplicação de filtros e visualizações
- Importando conjuntos de testes do Orchestrator
- Creating test sets
- Assigning test cases to a test set
- Habilitando a cobertura de atividade
- Configuração de conjuntos de testes para pastas e robôs de execução específicos
- Substituindo parâmetros
- Clonagem de conjuntos de teste
- Exportação de conjuntos de testes
- Aplicação de filtros e visualizações
- Execução de testes manuais
- Execução de testes automatizados
- Execução de casos de teste sem um conjunto de testes
- Execução de testes mistos
- Criação de execuções pendentes
- Aplicação de uma ordem de execução
- Reexecutando execuções de teste
- Agendamento de execuções
- Solução de problemas de execuções automatizadas
- Pesquisa com o Autopilot
- Operações e utilitários do projeto
- Configurações Test Manager
- Integração da ferramentas ALM
- Integração do API
- Solução de problemas

Guia do usuário do Test Manager
O painel fornece vários gráficos e indicadores de status que ajudam a determinar se seu aplicativo e infraestrutura atenderam aos níveis de desempenho esperados.
- O gráfico Usuários exibe o número de usuários virtuais ativos ao longo do tempo e se sobrepõe a métricas-chave adicionais, como erros de automação, tempos de resposta e erros
HTTP. Isso permite que você identifique rapidamente as correlações, por exemplo, se uma carga maior coincidir com o aumento de erros ou tempos de resposta mais lentos. - Gráfico de infraestrutura Mostra o consumo de CPU e memória dos robôs que executam a carga (geradores de carga sem servidor ou máquinas locais). O monitoramento dessas métricas garante que os problemas de desempenho não sejam causados por infraestrutura de robô sobrecarregada em vez do sistema em teste.
- Cartões do grupo Cada cartão do grupo fornece uma visão geral de alto nível do status de execução e das principais métricas de um grupo de carga.
- Nome do grupo e nome do caso de teste. O nome do grupo não pode ser alterado.
- Status (sem resultado, Aprovado ou Falhou). O status é determinado automaticamente com base na conformidade do limite, mas também pode ser ajustado manualmente. Isso permite que os proprietários de teste substituam os resultados se acharem que um grupo deve ser considerado bem-sucedido apesar de violações menores ou marcado como falho se as expectativas críticas para os negócios não forem atendidas.
- Número de usuários virtuais executados. Essa métrica mostra uma barra cheia depois de ser totalmente concluída.
- Taxas de erro (
HTTPe erros de automação) - Tempos médio e máximo de resposta
A visualização do painel ajuda você a avaliar rapidamente se um grupo atingiu seus objetivos de nível de serviço definidos (SLOs). Para uma análise mais profunda, você pode abrir a visualização Métricas do grupo , que fornece gráficos detalhados sobre tempos de resposta, taxas de erro, durações das etapas e uso da infraestrutura.
A visualização detalhada fornece insights detalhados sobre eventos específicos que ocorreram durante um teste de desempenho.
- Seleção de um período e um gráfico
Para abrir a visualização de detalhes, primeiro selecione um intervalo de tempo no histórico e, em seguida, escolha um gráfico específico (por exemplo, tempos de resposta HTTP, erros). A visualização de detalhes mostrará entradas relevantes para o período selecionado.
- Pares de solicitação/resposta HTTP
A tabela lista todas as solicitações HTTP executadas pelo grupo de carga, incluindo seu nome, tipo, tempo de resposta e código de status.
- Se as solicitações retornarem códigos de erro (por exemplo, 404, 500), eles serão sinalizados como erros.
- Se as solicitações retornarem códigos válidos (por exemplo, 200), mas excederem os limites de tempo de resposta, eles também serão relatados aqui. O número na frente de cada entrada indica quantas vezes o problema ocorreu.
- Erros de Automação
A mesma visualização de detalhes também pode ser usada para exibir erros de nível de automação, como falhas de seletor ou exceções de atividade. Isso fornece visibilidade para problemas funcionais que podem ocorrer sob carga.