- Démarrage
- Gestion de projet
- Documents
- Travailler avec l’analyse de l’impact des modifications
- Créer des scénarios de test
- Assigning test cases to requirements
- Clonage des cas de test
- Exporter des cas de test
- Linking test cases in Studio to Test Manager
- Delete test cases
- Cas de test manuels
- Importer des cas de test manuels
- Documenter les cas de test avec Task Capture
- Paramètres
- Appliquer des filtres et des vues
- Importer des ensembles de test Orchestrator
- Creating test sets
- Assigning test cases to a test set
- Activation de la couverture des activités
- Configuration d'ensembles de test pour des dossiers et des robots d'exécution spécifiques
- Remplacer les paramètres
- Cloner des ensembles de tests
- Exporter des ensembles de tests
- Appliquer des filtres et des vues
- Exécution de tests manuels
- Exécuter des tests automatisés
- Exécuter des cas de test sans ensemble de tests
- Exécuter des tests mixtes
- Créer des exécutions en attente
- Appliquer un ordre d’exécution
- Réexécution des exécutions de test
- Planification des exécutions
- Résoudre les problèmes des exécutions automatisées
- Rechercher avec Autopilot
- Opérations et utilitaires de projet
- Paramètres de Test Manager
- Intégration de l'outil de gestion du cycle de vie des applications (ALM)
- Intégration de l'API
- Résolution des problèmes

Guide de l'utilisateur de Test Manager
Le tableau de bord fournit plusieurs graphiques et indicateurs de statut qui vous aident à déterminer si votre application et votre infrastructure ont rempli les niveaux de performances attendus.
- Le graphique Utilisateurs affiche le nombre d'utilisateurs virtuels actifs au fil du temps et reprend des mesures clés supplémentaires telles que les erreurs d'automatisation, les temps de réponse et les erreurs
HTTP. Cela vous permet d'identifier rapidement les corrélations, par exemple, si une charge plus élevée correspond à l'augmentation des erreurs ou à des temps de réponse plus lents. - Le graphique Infrastructure affiche la consommation du processeur et de la mémoire des robots exécutant la charge (générateurs de charge sans serveur ou machines locales). La surveillance de ces mesures permet de s’assurer que les problèmes de performances ne sont pas dus à une infrastructure de robot surchargée, mais plutôt au système testé.
- Cartes de groupe Chaque carte de groupe fournit un aperçu de haut niveau du statut d'exécution d'un groupe de charge et des mesures clés.
- Nom de groupe et nom du cas de test. Le nom du groupe ne peut pas être modifié.
- Statut (aucun résultat, Réussi ou Échec). Le statut est déterminé automatiquement en fonction du seuil de conformité, mais il peut également être ajusté manuellement. Cela permet aux propriétaires de tests de remplacer les résultats s'ils estiment qu'un groupe doit être considéré comme réussi malgré des violations mineures, ou marqué comme ayant échoué si les attentes critiques de l'entreprise n'ont pas été respectées.
- Nombre d'utilisateurs virtuels exécutés. Cette mesure affiche une barre complète une fois qu’elle est entièrement terminée.
- Taux d’erreur (
HTTPet erreurs d’automatisation) - Délais de réponse moyens et maximum
La vue du tableau de bord vous aide à évaluer rapidement si un groupe a atteint ses objectifs de niveau de service (SLO) définis. Pour une analyse plus approfondie, vous pouvez ouvrir la vue Métriques de groupe , qui fournit des graphiques détaillés sur les temps de réponse, les taux d’erreur, la durée des étapes et l’utilisation de l’infrastructure.
La vue détaillée fournit des informations détaillées sur des événements spécifiques qui se sont produits lors d’un test de performances.
- Sélectionner une période et un graphique
Pour ouvrir la vue des détails, sélectionnez d'abord une plage de temps dans l'historique, puis choisissez un graphique spécifique (par exemple, temps de réponse HTTP, erreurs). La vue des détails affichera les entrées pertinentes pour la période sélectionnée.
- Paires requête/réponse HTTP
Le tableau répertorie toutes les requêtes HTTP exécutées par le groupe de charge, y compris leur nom, leur type, leur temps de réponse et leur code de statut.
- Si les requêtes renvoient des codes d’erreur (par ex., 404, 500), elles sont marquées comme des erreurs.
- Si les requêtes renvoient des codes valides (par exemple, 200) mais dépassent les seuils de temps de réponse, elles sont également signalées ici. Le nombre devant chaque entrée indique le nombre de fois où le problème s'est produit.
- Erreurs d’automatisation
La même vue détaillée peut également être utilisée pour afficher les erreurs au niveau de l’automatisation telles que les échecs de sélecteur ou les exceptions d’activité. Ceux-ci offrent une visibilité sur les problèmes fonctionnels pouvant survenir en cas de charge.