- Introdução
- Gerenciamento do projeto
- Documentos
- Trabalhando com análise de impacto de alterações
- Criar casos de teste
- Assigning test cases to requirements
- Casos de teste de clonagem
- Exportação de casos de teste
- Vinculação de casos de teste no Studio ao Test Manager
- Delete test cases
- Casos de teste manuais
- Importação de casos de teste manuais
- Documentar casos de teste com o Task Capture
- Parâmetros
- Aplicação de filtros e visualizações
- Importando conjuntos de testes do Orchestrator
- Creating test sets
- Adição de casos de teste a um conjunto de testes
- Atribuição de usuários padrão na execução do conjunto de testes
- Habilitando a cobertura de atividade
- Habilitação do Healing Agent
- Configuração de conjuntos de testes para pastas e robôs de execução específicos
- Substituindo parâmetros
- Clonagem de conjuntos de teste
- Exportação de conjuntos de testes
- Aplicação de filtros e visualizações
- Execução de testes manuais
- Execução de testes automatizados
- Execução de casos de teste sem um conjunto de testes
- Execução de testes mistos
- Criação de execuções pendentes
- Aplicação de uma ordem de execução
- Reexecutando execuções de teste
- Agendamento de execuções
- Solução de problemas de execuções automatizadas
- Perguntas frequentes - Paridade de funcionalidades - Test Manager versus Orchestrator
- Criação de testes automatizados
- Execução de cenários de desempenho
- Limitações conhecidas para testes de desempenho
- Melhores práticas para testes de desempenho
- Solução de problemas de testes de desempenho
- Testes de acessibilidade para o Test Cloud
- Pesquisa com o Autopilot
- Operações e utilitários do projeto
- Configurações Test Manager
- Integração da ferramentas ALM
- Integração do API
- Solução de problemas

Guia do usuário do Test Manager
Certifique-se de que os casos de teste sejam robustos, estáveis em dados e livres de falhas antes do dimensionamento.
Use o crescimento gradual para simular um tráfego realista e evite fases de pico curtas ou longas demais.
Prepare conjuntos de dados parametrizados (por meio do Data Fabric) para evitar entradas duplicadas que podem distorcer os resultados.
- Certifique-se de que haja recursos de infraestrutura suficientes.
- Valide os testes localmente antes de publicar.
- Use as versões mais recentes do pacote.
As seguintes recomendações expandem as práticas recomendadas gerais para testes de desempenho, especificamente para cenários de automação de navegadores. O teste de desempenho requer a execução de vários usuários virtuais (VUs) simultaneamente na mesma máquina, o que introduz restrições que não existem na execução de usuário único.
- Evite operações do sistema de arquivos locais.
Qualquer etapa que leia ou grave em um arquivo local depende dos identificadores de arquivos do Windows. O Windows bloqueia um identificador de arquivo quando ele é aberto por um processo, impedindo que todos os outros processos acessem o mesmo arquivo. Isso causa falhas quando várias VUs são executadas simultaneamente.
Exemplos comuns:
- Leitura de dados de teste do Excel ou CSV — várias VUs não podem abrir o mesmo arquivo simultaneamente. Em vez disso, use o Data Fabric para servir os dados de teste simultaneamente sem contenção de identificador de arquivo.
- Gravar capturas de tela em documentos do Word — A captura de evidências normalmente é relevante apenas para testes funcionais e não deve fazer parte de um teste de desempenho. Em um teste de carga, centenas de VUs são executados em loops — cada iteração geraria seus próprios documentos, produzindo rapidamente um volume não gerenciável de artefatos.
- Qualquer outra interação de arquivos locais — arquivos de configuração, arquivos de log, armazenamentos de dados intermediários — todos estão sujeitas ao bloqueio do identificador de arquivos.
- Preferir API do Chromium - Evite eventos de hardware e Computer Vision.
Abordagem Description Compatibilidade Multi-VU API do Chromium (eventos DOM simulados) Dispara eventos diretamente em elementos DOM dentro da instância do navegador por meio de seletores. Nenhuma entrada real ocorre no nível do sistema operacional — o navegador lida com a interação internamente. Excelente — independente por instância; funciona em janelas em segundo plano. Eventos de Hardware Gera uma entrada real de mouse/tecla no nível do sistema operacional. O sistema operacional fornece para a janela atualmente ativa (em primeiro plano). Fraco — a entrada vai para a janela que estiver em primeiro plano, não necessariamente a instância do navegador pretendida. Computer Vision Localiza elementos por correspondência de padrão visual na tela. Não viável — as instâncias do navegador em segundo plano são invisíveis para o reconhecimento de imagem. - Sempre o padrão é a API do Chromium.
A API do Chromium opera diretamente no DOM e funciona independentemente de a janela do navegador estar em primeiro plano, minimizada ou oculta.
- Evite eventos de hardware.
Os eventos de hardware são entregues pelo sistema operacional para a janela ativa. Com várias VUs, um evento de hardware destinado a uma instância do navegador será enviado para a janela que estiver atualmente em primeiro plano. Os eventos de hardware não são adequados quando várias automações são executadas em paralelo na mesma máquina.
- Evite o Computer Vision.
O Computer Vision não pode interagir com janelas em segundo plano e, portanto, é incompatível com a execução várias VU. Seletores incorretos ou ambíguos são o motivo mais comum para uma estrutura recair no Computer Vision. Certifique-se de que os seletores estejam corretos e validados durante o desenvolvimento. Seletores restritos (IDs, atributos de teste de dados, funções de ARIA) funcionam bem, especialmente para aplicativos como o SAP Fiori. Seletores difusos também são compatíveis com testes de desempenho, desde que correspondam de forma confiável ao elemento pretendido sem disparar um fallback do Computer Vision.
- Recomendação de Simulação
Quando você adiciona um caso de teste a um cenário de desempenho pela primeira vez, a ferramenta solicita que você execute uma simulação. Uma execução em seco executa várias instâncias na mesma máquina para confirmar que não há bloqueios de arquivos, conflitos de entrada ou problemas de seletor antes de dimensionar para carga completa.