- Démarrage
- Gestion de projet
- Documents
- Travailler avec l’analyse de l’impact des modifications
- Créer des scénarios de test
- Affectation de cas de test aux exigences.
- Clonage des cas de test
- Exporter des cas de test
- Lier des cas de test à Test Manager dans Studio
- Delete test cases
- Cas de test manuels
- Importer des cas de test manuels
- Documenter les cas de test avec Task Capture
- Paramètres
- Activation de la gouvernance au niveau du projet
- Désactivation de la gouvernance au niveau du projet
- Activation de la gouvernance au niveau des cas de test
- Désactivation de la gouvernance au niveau du cas de test
- Gérer les approbateurs pour les cas de test régis
- Gérer les cas de test régis à l’état En cours
- Gérer les cas de test régis à l’état En révision
- Gérer les objets régis à l'état Signé
- Gérer les commentaires pour les cas de test régis
- Appliquer des filtres et des vues
- Importer des ensembles de test Orchestrator
- Creating test sets
- Ajouter des cas de test à un ensemble de test
- Attribuer des utilisateurs par défaut dans l'exécution de l'ensemble de tests
- Activation de la couverture des activités
- Activer Healing Agent
- Configuration d'ensembles de test pour des dossiers et des robots d'exécution spécifiques
- Remplacer les paramètres
- Cloner des ensembles de tests
- Exporter des ensembles de tests
- Appliquer des filtres et des vues
- FAQ - Parité des fonctionnalités - Test Manager vs Orchestrator
- Exécution de tests manuels
- Exécuter des tests automatisés
- Exécuter des cas de test sans ensemble de tests
- Exécuter des tests mixtes
- Créer des exécutions en attente
- Appliquer un ordre d’exécution
- Réexécution des exécutions de test
- Planification des exécutions
- Résoudre les problèmes des exécutions automatisées
- Créer des tests automatisés
- Étape 1 : remplir les prérequis pour les scénarios de performances
- Étape 2 : Ajouter des scénarios de performances
- Étape 3 : Ajouter des cas de test pour charger des groupes
- Étape 4 : Configurez les paramètres du groupe de charge
- Exécution de scénarios de performances
- Limitations connues des tests de performances
- Meilleures pratiques en matière de tests de performances
- Résolution des problèmes de tests de performances
- Tests d'accessibilité pour Test Cloud
- Rechercher avec Autopilot
- Opérations et utilitaires de projet
- Paramètres de Test Manager
- Intégration de l'outil de gestion du cycle de vie des applications (ALM)
- Intégration de l'API
- Résolution des problèmes
Guide de l'utilisateur de Test Manager
Lors de la configuration d'un groupe de charge, vous définissez comment le cas de test sélectionné sera exécuté à grande échelle. Chaque paramètre vous permet de modéliser un comportement utilisateur réaliste et d'appliquer les attentes de performances.
- Connectez-vous à Test Manager.
- Accédez à Scénarios de performances, ouvrez un scénario et développez un groupe de charge.
- Sous Utilisateurs virtuels, spécifiez le nombre d’utilisateurs simulés simultanés affectés au cas de test. Chaque groupe peut prendre en charge jusqu'à 500 utilisateurs virtuels, avec un total de 2 000 selon le scénario. Vérifiez le nombre d’unités VU et de machines consommées après un test en fonction de votre sélection.
- Définissez les attentes en matière de performances. Le dépassement de ces seuils mettra en évidence des avertissements ou des erreurs dans le tableau de bord des résultats, vous permettant d’identifier des scénarios instables.
-
- Dans le champ Max. champ seuil de temps de réponse , spécifiez la limite de temps supérieure (en ms) que les réponses ne doivent pas dépasser (par exemple, 5 000 ms pour le groupe 1).
-
- Dans le seuil de taux d'erreur moyen, spécifiez le taux d'échec acceptable (%) pour toutes les exécutions (par exemple, 1 %).
-
- Dans le champ Source de données , liez une entité Data Fabric (également appelée entité Data Service) en tant que source de données afin d'envoyer des entrées paramétrées telles que les informations d'identification de l'utilisateur ou les détails du compte. Cela garantit que chaque utilisateur virtuel peut s'exécuter avec des données uniques, en évitant les conflits et en rapprochant l'exécution d'une utilisation réelle.
Astuce :
Pour utiliser Data Fabric pour Performance Testing, assurez-vous que votre incident de test prend en charge la consommation de données de test de Data Fabric. Pour de plus amples informations sur l'utilisation des données de test de Data Fabric dans vos tests, consultez la section Tests centrés sur les données. Lorsque ce cas de test est inclus dans un groupe de charge, vous pouvez configurer une source de données spécifique au niveau du groupe. Cela vous permet de définir et d'utiliser une source Data Fabric dédiée pour vos exécutions de tests de performance.
- Décidez si vous souhaitez conserver les paramètres Studio tels quels ou les remplacer. Pour remplacer les paramètres Studio, sous Paramètres, sélectionnez Remplacer. Dans la boîte de dialogue Remplacer les paramètres , effectuez l'action requise.
- Pour remplacer individuellement les paramètres Studio, activez l' option Remplacer. Saisissez une nouvelle valeur pour les types Chaîne. Pour les types booléens, sélectionnez Vrai ou Faux. Lorsque vous avez terminé, sélectionnez Enregistrer.
- Pour remplacer tous les paramètres Studio, sélectionnez Remplacer tout. Saisissez ou sélectionnez les nouvelles valeurs. Lorsque vous avez terminé, sélectionnez Enregistrer.
- Pour supprimer tous les remplacements de paramètres Studio, sélectionnez Supprimer les remplacements, puis sélectionnez Enregistrer.
- Indiquez comment la charge a été appliquée au fil du temps. Ensemble, ces paramètres vous permettent de modéliser des modèles de trafic réalistes tels qu'une adoption progressive, une utilisation régulière et un arrêt contrôlé.
- Le champ Délai affiche le temps d'attente avant que le groupe de charge ne commence l'exécution (par exemple, 0 minute).
- Le champ Montée en puissance affiche la période au cours de laquelle le nombre d'utilisateurs simultanés est progressivement augmenté jusqu'à ce que le nombre maximal d'utilisateurs soit atteint (par exemple, 2 minutes).
- Le champ Pic indique la durée pendant laquelle le nombre maximum d'utilisateurs reste actif (par exemple, 26 minutes).
- Le champ Descente indique la période au cours de laquelle le nombre d'utilisateurs passe progressivement à zéro (par exemple, 2 minutes).