test-manager
latest
false
- Démarrage
- Gestion de projet
- Documents
- Travailler avec l’analyse de l’impact des modifications
- Créer des scénarios de test
- Affectation de cas de test aux exigences.
- Clonage des cas de test
- Exporter des cas de test
- Lier des cas de test à Test Manager dans Studio
- Delete test cases
- Cas de test manuels
- Importer des cas de test manuels
- Documenter les cas de test avec Task Capture
- Paramètres
- Activation de la gouvernance au niveau du projet
- Désactivation de la gouvernance au niveau du projet
- Activation de la gouvernance au niveau des cas de test
- Désactivation de la gouvernance au niveau du cas de test
- Gérer les approbateurs pour les cas de test régis
- Gérer les cas de test régis à l’état En cours
- Gérer les cas de test régis à l’état En révision
- Gérer les objets régis à l'état Signé
- Gérer les commentaires pour les cas de test régis
- Appliquer des filtres et des vues
- Importer des ensembles de test Orchestrator
- Creating test sets
- Ajouter des cas de test à un ensemble de test
- Attribuer des utilisateurs par défaut dans l'exécution de l'ensemble de tests
- Activation de la couverture des activités
- Activer Healing Agent
- Configuration d'ensembles de test pour des dossiers et des robots d'exécution spécifiques
- Remplacer les paramètres
- Cloner des ensembles de tests
- Exporter des ensembles de tests
- Appliquer des filtres et des vues
- FAQ - Parité des fonctionnalités - Test Manager vs Orchestrator
- Exécution de tests manuels
- Exécuter des tests automatisés
- Exécuter des cas de test sans ensemble de tests
- Exécuter des tests mixtes
- Créer des exécutions en attente
- Appliquer un ordre d’exécution
- Réexécution des exécutions de test
- Planification des exécutions
- Résoudre les problèmes des exécutions automatisées
- Créer des tests automatisés
- Étape 1 : remplir les prérequis pour les scénarios de performances
- Étape 2 : Ajouter des scénarios de performances
- Étape 3 : Ajouter des cas de test pour charger des groupes
- Étape 4 : Configurez les paramètres du groupe de charge
- Exécution de scénarios de performances
- Limitations connues des tests de performances
- Meilleures pratiques en matière de tests de performances
- Résolution des problèmes de tests de performances
- Tests d'accessibilité pour Test Cloud
- Rechercher avec Autopilot
- Opérations et utilitaires de projet
- Paramètres de Test Manager
- Intégration de l'outil de gestion du cycle de vie des applications (ALM)
- Intégration de l'API
- Résolution des problèmes
Guide de l'utilisateur de Test Manager
Dernière mise à jour 6 mai 2026
Lors de la configuration d'un groupe de charge, vous définissez comment le cas de test sélectionné sera exécuté à grande échelle. Chaque paramètre vous permet de modéliser un comportement utilisateur réaliste et d'appliquer les attentes de performances.
- Connectez-vous à Test Manager.
- Accédez à Scénarios de performances, ouvrez un scénario et développez un groupe de charge.
- Under Virtual users, specify the number of concurrent simulated users assigned to the test case. Each group can support up to 500 virtual users, with a total of 2,000 across a scenario. Check the number of VU units and machines consumed after a Dry Run, based on your selection.
- Définissez les attentes en matière de performances. Le dépassement de ces seuils mettra en évidence des avertissements ou des erreurs dans le tableau de bord des résultats, vous permettant d’identifier des scénarios instables.
-
- In the Max. response time threshold field, specify the upper time limit (in ms) that responses should not exceed (e.g., 5,000 ms for Group 1).
-
- In the Average error rate threshold, specify the acceptable failure rate (%) across all executions (e.g., 1%).
-
- In the Data source field, link a Data Fabric entity (also known as a Data Service entity) as the data source to feed parameterized inputs such as user credentials or account details. This ensures that each virtual user can run with unique data, avoiding collisions and making execution closer to real-world usage.
Astuce :
To use Data Fabric for Performance Testing, ensure that your test case supports test data consumption from Data Fabric. For information on using Data Fabric test data in your tests, refer to Data-driven testing. When this test case is included in a Load Group, you can configure a specific data source at the group level. This allows you to define and use a dedicated Data Fabric source for your performance test executions.
- Decide whether you want to keep Studio parameters as is or override them. To override Studio parameters, under Parameters, select Override. In the Override parameters dialog, perform the required action.
- To override Studio parameters individually, toggle Override. For String types, enter a new value. For Boolean types, select True or False. When finished, select Save.
- To override all Studio parameters, select Override all. Enter or select the new values. When finished, select Save.
- To remove all Studio parameter overrides, select Remove overrides, and then select Save.
- Indiquez comment la charge a été appliquée au fil du temps. Ensemble, ces paramètres vous permettent de modéliser des modèles de trafic réalistes tels qu'une adoption progressive, une utilisation régulière et un arrêt contrôlé.
- The Delay field shows the wait time before the load group starts execution (e.g., 0 minutes).
- The Ramp up field shows the period over which the number of concurrent users is gradually increased until the maximum number of users is reached (e.g., 2 minutes).
- The Peak field shows the duration during which the maximum number of users remain active (e.g., 26 minutes).
- The Ramp down field shows the period over which the number of users gradually decreases to zero (e.g., 2 minutes).