- Démarrage
- Gestion de projet
- Documents
- Travailler avec l’analyse de l’impact des modifications
- Créer des scénarios de test
- Affectation de cas de test aux exigences.
- Clonage des cas de test
- Exporter des cas de test
- Lier des cas de test à Test Manager dans Studio
- Delete test cases
- Cas de test manuels
- Importer des cas de test manuels
- Documenter les cas de test avec Task Capture
- Paramètres
- Activation de la gouvernance au niveau du projet
- Désactivation de la gouvernance au niveau du projet
- Activation de la gouvernance au niveau des cas de test
- Désactivation de la gouvernance au niveau du cas de test
- Gérer les approbateurs pour les cas de test régis
- Gérer les cas de test régis à l’état En cours
- Gérer les cas de test régis à l’état En révision
- Gérer les objets régis à l'état Signé
- Gérer les commentaires pour les cas de test régis
- Appliquer des filtres et des vues
- Importer des ensembles de test Orchestrator
- Creating test sets
- Ajouter des cas de test à un ensemble de test
- Attribuer des utilisateurs par défaut dans l'exécution de l'ensemble de tests
- Activation de la couverture des activités
- Activer Healing Agent
- Configuration d'ensembles de test pour des dossiers et des robots d'exécution spécifiques
- Remplacer les paramètres
- Cloner des ensembles de tests
- Exporter des ensembles de tests
- Appliquer des filtres et des vues
- FAQ - Parité des fonctionnalités - Test Manager vs Orchestrator
- Exécution de tests manuels
- Exécuter des tests automatisés
- Exécuter des cas de test sans ensemble de tests
- Exécuter des tests mixtes
- Créer des exécutions en attente
- Appliquer un ordre d’exécution
- Réexécution des exécutions de test
- Planification des exécutions
- Résoudre les problèmes des exécutions automatisées
- Tests d'accessibilité pour Test Cloud
- Rechercher avec Autopilot
- Opérations et utilitaires de projet
- Paramètres de Test Manager
- Intégration de l'outil de gestion du cycle de vie des applications (ALM)
- Intégration de l'API
- Résolution des problèmes
Guide de l'utilisateur de Test Manager
Le tableau de bord fournit plusieurs graphiques et indicateurs de statut qui vous aident à déterminer si votre application et votre infrastructure ont rempli les niveaux de performances attendus.
- The Users chart displays the number of active virtual users over time and overlays additional key metrics such as automation errors, response times, and
HTTPerrors. This allows you to quickly identify correlations, for example, if higher load coincides with increased errors or slower response times. - Le graphique Infrastructure affiche la consommation du processeur et de la mémoire des robots exécutant la charge (générateurs de charge sans serveur ou machines locales). La surveillance de ces indicateurs permet de s’assurer que tout problème de performance est causé par le fait que le système est sous pression, plutôt que par une surcharge de l’infrastructure Robot.
- Cartes de groupe : chaque carte de groupe fournit un aperçu de haut niveau de l'état d'exécution d'un groupe de charge et de ses mesures clés.
- Group name and test case name. The group name cannot be changed.
- Status (no result, Passed or Failed). The status is determined automatically based on threshold compliance, but it can also be manually adjusted. This allows test owners to override results if they believe a group should be considered successful despite minor violations or marked as failed if business-critical expectations were not met.
- Number of virtual users executed. This metric shows a full bar after it is fully completed.
- Error rates (
HTTPand automation errors) - Délais de réponse moyens et maximum
Pour afficher les erreurs HTTP et les erreurs d'automatisation :
- Open an execution and select a view of interest from the Users charts or the Infrastructure charts.
- Perform a selection in the view of interest (HTTP errors or Automation errors).
- Consult the errors in the Web Traffic section and the Automation Errors section.
The dashboard view helps you quickly assess whether a group met its defined service level objectives (SLOs). For deeper analysis, you can open the Group Metrics view, which provides detailed charts on response times, error rates, step durations, and infrastructure usage.
La vue détaillée fournit des informations détaillées sur des événements spécifiques qui se sont produits lors d’un test de performances.
- Selecting a timeframe and chart To open the detail view, first select a time range in the histogram and then choose a specific chart (e.g., HTTP response times, errors). The detail view will show relevant entries for the selected timeframe.
- HTTP request/response pairs The table lists all HTTP requests executed by the load group, including their name, type, response time, and status code.
- Si les requêtes renvoient des codes d’erreur (par ex., 404, 500), elles sont marquées comme des erreurs.
- Si les requêtes renvoient des codes valides (par exemple, 200) mais dépassent les seuils de temps de réponse, elles sont également signalées ici. Le nombre devant chaque entrée indique le nombre de fois où le problème s'est produit.
- Automation errors The same detail view can also be used to display automation-level errors such as selector failures or activity exceptions. These provide visibility into functional problems that may occur under load.
En combinant les codes d’erreur, les violations de seuil et les journaux d’automatisation, la vue détaillée permet d’identifier la cause profonde des échecs de performances ou de fonctionnement dans un scénario de test.
