- Introdução
- Gerenciamento do projeto
- Documentos
- Trabalhando com análise de impacto de alterações
- Criar casos de teste
- Atribuição de casos de teste a requisitos
- Casos de teste de clonagem
- Exportação de casos de teste
- Vinculação de casos de teste no Studio ao Test Manager
- Delete test cases
- Casos de teste manuais
- Importação de casos de teste manuais
- Documentar casos de teste com o Task Capture
- Parâmetros
- Habilitação de governança no nível do projeto
- Desabilitação da governança no nível do projeto
- Habilitação de governança no nível do caso de teste
- Como desabilitar a governança no nível do caso de teste
- Gerenciamento de aprovadores para casos de teste controlados
- Gerenciamento de casos de teste governados no estado Em andamento
- Gerenciamento de casos de teste governados no estado Em Revisão
- Gerenciamento de objetos governados no estado Assinado
- Gerenciamento de comentários para casos de teste governados
- Aplicação de filtros e visualizações
- Importando conjuntos de testes do Orchestrator
- Creating test sets
- Adição de casos de teste a um conjunto de testes
- Atribuição de usuários padrão na execução do conjunto de testes
- Habilitando a cobertura de atividade
- Habilitação do Healing Agent
- Configuração de conjuntos de testes para pastas e robôs de execução específicos
- Substituindo parâmetros
- Clonagem de conjuntos de teste
- Exportação de conjuntos de testes
- Aplicação de filtros e visualizações
- Perguntas frequentes - Paridade de funcionalidades - Test Manager versus Orchestrator
- Execução de testes manuais
- Execução de testes automatizados
- Execução de casos de teste sem um conjunto de testes
- Execução de testes mistos
- Criação de execuções pendentes
- Aplicação de uma ordem de execução
- Reexecutando execuções de teste
- Agendamento de execuções
- Solução de problemas de execuções automatizadas
- Criação de testes automatizados
- Etapa 1: completar pré-requisitos para cenários de desempenho
- Etapa 2: adicionar cenários de desempenho
- Etapa 3: adicionar casos de teste para carregar grupos
- Etapa 4: definir as configurações do grupo de carga
- Execução de cenários de desempenho
- Limitações conhecidas para testes de desempenho
- Melhores práticas para testes de desempenho
- Solução de problemas de testes de desempenho
- Testes de acessibilidade para o Test Cloud
- Pesquisa com o Autopilot
- Operações e utilitários do projeto
- Configurações Test Manager
- Integração da ferramentas ALM
- Integração do API
- Solução de problemas
Guia do usuário do Test Manager
Os grupos de carga definem os casos de teste específicos que serão executados em paralelo na escala atual. Cada grupo pode representar uma carga de trabalho distinta (por exemplo, fluxo de login versus fluxo de transações).
Em sistemas do mundo real, o tráfego de aplicativos raramente vem de um único tipo de usuário ou segue um padrão uniforme. Ao projetar cenários com tipos de casos de teste variados, perfis de carga e tempos de execução, você simula condições de uso realistas, aumentando a probabilidade de descobrir gargalos e validar que o aplicativo pode lidar com verdadeiras demandas de escala de produção.
Ao combinar vários grupos de carga em um cenário, você pode:
-
Combina diferentes tipos de automação: inclua casos de teste de API, interface gráfica da Web e área de trabalho juntos para refletir a diversidade de como os usuários e sistemas interagem com o aplicativo. Por exemplo, as chamadas de API podem ser executadas em alto volume, enquanto menos usuários de área de trabalho ou web realizam transações mais complexas.
-
Simule padrões de tráfego realistas: diferentes grupos de carga permitem que você modele tempos variados, aceleração e cargas de pico. Alguns usuários podem fazer login continuamente, enquanto outros geram atividade em picos ou picos, conforme mostrado na captura de tela onde um grupo é executado de forma constante, enquanto outros aceleram e reduzem em momentos diferentes.
-
Detectar efeitos de interação: a execução de diferentes cargas de trabalho em paralelo destaca como um processo pode afetar o desempenho de outro. Por exemplo, um pico de solicitações de API pode retardar as transações da Web, ou uma atividade principal de login pode afetar os tempos de processamento do back-end.
-
Encerre o sistema holístico: vários grupos juntos criam uma carga de trabalho de ponta a ponta mais autentica, garantindo que o sistema seja validado contra o estresse combinado, não apenas com casos de teste isolados. Isso melhora a confiança de que o desempenho no ambiente de teste reflete o comportamento da produção.
- Faça logon no Test Manager.
- Acesse Cenários de desempenho e abra um cenário.
- Selecione Adicionar grupo de carga ou selecione o campo Caso de teste em um grupo de carga vazio para abrir a caixa de diálogo de seleção.
- Para definir o contexto de execução, em Pasta padrão, selecione a pasta do Orchestrator na qual seu usuário e robô serão atribuídos.
- Escolha o caso de teste que você deseja executar em escala.
- Selecione o tipo de robô.
- Os robôs sem servidor na nuvem consomem Platform Units e são recomendados para testes na Web e em API.
- Os robôs on-premises consomem runtimes (250 por pacote de usuários virtuais), que devem ser configurados em modelos de máquina no Orchestrator.
- Selecione a versão do pacote da automação que você deseja executar. Por padrão, a versão mais recente é escolhida automaticamente.
- Confirme sua seleção.