- Démarrage
- Gestion de projet
- Documents
- Travailler avec l’analyse de l’impact des modifications
- Assigning test cases to requirements
- Linking test cases in Studio to Test Manager
- Delete test cases
- Documenter les cas de test avec Task Capture
- Créer des scénarios de test
- Importer des cas de test manuels
- Clonage des cas de test
- Exporter des cas de test
- Cas de test automatisés
- Cas de test manuels
- Paramètres
- Appliquer des filtres et des vues
- Importer des ensembles de test Orchestrator
- Creating test sets
- Assigning test cases to a test set
- Activation de la couverture des activités
- Configuration d'ensembles de test pour des dossiers et des robots d'exécution spécifiques
- Remplacer les paramètres
- Cloner des ensembles de tests
- Exporter des ensembles de tests
- Appliquer des filtres et des vues
- Exécution de tests manuels
- Exécuter des tests automatisés
- Exécuter des cas de test sans ensemble de tests
- Exécuter des tests mixtes
- Créer des exécutions en attente
- Appliquer un ordre d’exécution
- Réexécution des exécutions de test
- Planification des exécutions
- Résoudre les problèmes des exécutions automatisées
- Rechercher avec Autopilot
- Opérations et utilitaires de projet
- Paramètres de Test Manager
- Intégration de l'outil de gestion du cycle de vie des applications (ALM)
- Intégration de l'API
- Résolution des problèmes

Guide de l'utilisateur de Test Manager
Pour activer les rapports avec Insights, procédez comme suit :
- Activez le service Insights sur le même locataire que votre instance Test Manager.
Vous avez besoin d'un rôle d'administrateur d'organisation Automation Cloud pour activer un service.
- Dans Test Manager, activez le paramètre Activer la création de rapports avec Insights (Enable reporting with Insights) au niveau du locataire.
Vous avez besoin d'un rôle de locataire administrateur Test Manager pour activer l'intégration avec Insights.
Pour plus d'informations sur l'activation du paramètre, consultez Paramètres au niveau du locataire.
Une fois que vous avez activé l'intégration d'Insights dans votre locataire Test Manager, vous pourrez accéder aux analyses pour tous vos projets de test au sein de ce locataire. Insights récupère les données de Test Manager, basées sur un modèle de données spécifique, et les présente via le tableau de bord prédéfini du rapport d'exécution de Test Manager . Ce tableau de bord fournit un aperçu de toutes vos exécutions de test au sein de votre locataire.
Insights utilise les journaux de cas de test de Test Manager pour générer les tableaux de bord personnalisables. Pour plus de détails sur le modèle de données utilisé par Insights pour générer les tableaux de bord, consultez la section Modèle de données de Test Manager .
Termes et concepts
La structure du modèle de données de Test Manager repose sur les concepts suivants :
Concept |
Description |
---|---|
Explore |
Le point de départ de l'exploration. Les données sont réaffichées via des Explorations, qui peut être considéré comme une entité générale correspondant aux champs qu'elle contient. |
Consultation (View) |
Une vue représente une table de données, que cette table soit native de votre base de données ou qu'elle ait été créée à l'aide de la fonctionnalité de table dérivée de Looker. Dans chaque vue se trouvent des définitions de champ, dont chacune correspond généralement à une colonne de la table sous-jacente ou à un calcul dans Looker. |
Dimension |
Dans le cadre d'une vue dans l'exploration, la dimension est un champ pouvant être groupé et peut être utilisée pour filtrer les résultats de la requête. Il peut s'agir de l'un des éléments suivants :
|
Measure |
Dans le cadre d'une vue dans l'exploration, le paramètre Mesure déclare une nouvelle mesure (agrégation) et spécifie un nom pour cette mesure. Exemples de types de mesures :
integer , string .
|
Dimensions et mesures
Journaux de cas de test
Les tableaux suivants décrivent les dimensions et les mesures disponibles pour les journaux de cas de test.
Cote | Saisie de texte | Description |
---|---|---|
Adresse e-mail du bénéficiaire | string | L’adresse e-mail de l’utilisateur auquel un cas de test a été affecté. |
Nom du projet d’automatisation | string | Le nom de l'automatisation liée au cas de test. |
Date dʹéchéance | Date | La date à laquelle un cas de test manuel était planifié pour avoir été exécuté. |
Démarrage de l’exécution | Date | La date à laquelle l'exécution du test a commencé. |
Exécuté par | string | Le nom d'utilisateur ou le nom du robot qui a exécuté le test. |
Fin d'exécution (Execution End) | Date | La date à laquelle l'exécution du test s'est terminée. |
ExecutionType | string | Le type d'exécution :
|
Nom de la machine hôte | string | Nom de la machine. |
Project Name | string | Nom du projet Test Manager. |
Préfixe du projet | string | Le préfixe du projet Test Manager. |
Date de signalement | Date | La date à laquelle le test a été exécuté. C'est une date sans heure et aussi sans fuseau horaire. |
Résultat | string | Le résultat du cas de test : Réussi, Échec ou Aucun. |
Nom du Robot (Robot Name) | string | Le nom du Robot qui a exécuté le test. |
Nom de l’exécution de test | string | Le nom de l'exécution de test. |
Mesures | Saisie de texte | Description |
---|---|---|
Nombre total | Integer | Le nombre total de journaux de cas de test. |
Nombre de réussites | string | Le nombre de journaux de cas de test réussis. |
Nombre d’échecs (technique) | Integer | Les résultats techniques indiquent les résultats comme ayant échoué lorsqu'une exception se produit lors de l'exécution. |
Nombre sans résultat (technique) | Integer | Les résultats techniques n’indiquent aucun résultat lorsqu’une exception se produit lors de l’exécution. |
DurationInSeconds | Integer | Durée totale d'exécution en secondes. |
Prérequis
Les tableaux suivants répertorient les dimensions et mesures disponibles pour les exigences.
Cote | Saisie de texte | Description |
---|---|---|
Project Name | string | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
Nom | string | Une combinaison entre la clé de l'exigence et son nom, visant à la rendre unique et à augmenter la lisibilité. |
Mesure | Saisie de texte | Description |
---|---|---|
Nombre total de cas de test | Integer | Le nombre de cas de test affectés à un prérequis. |
Nombre de cas de test automatisés | Integer | Le nombre de cas de test automatisés affectés à un prérequis. |
Nombre de cas de test manuels | Integer | Le nombre de cas de test manuels affectés à un prérequis. |
Nombre de cas de test réussis | Integer | Le nombre de cas de test affectés à une exigence ayant réussi lors de la dernière exécution de test. |
Nombre de cas de test ayant échoué | Integer | Le nombre de cas de test affectés à une exigence ayant échoué lors de la dernière exécution de test. |
Aucun nombre de cas de test | Integer | Le nombre de cas de test affectés à une exigence sans résultat lors de la dernière exécution de test. |
Nombre total d’exigences | Integer | Le nombre total d’exigences. |
Ensembles de tests
Cote | Saisie de texte | Description |
---|---|---|
Project Name | string | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
Nom | string | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
Nom de robot | string | Le nom du Robot qui a exécuté l’ensemble de test. |
Source | string | La source de l’ensemble de tests : Orchestrator ou Test Manager. |
Mesure | Saisie de texte | Description |
---|---|---|
Nombre total d’ensembles de tests | Integer | Le nombre d’ensembles de tests. |
Nombre de cas de test automatisés | string | Le nombre de cas de test automatisés dans l’ensemble de tests. |
Nombre de cas de test manuels | Integer | Nombre de cas de test automatisés dans l’ensemble de tests. |
Exécution de test
Le tableau suivant détaille les dimensions et mesures disponibles pour les exécutions de test.
Cote | Saisie de texte | Description |
---|---|---|
Project Name | string | Une combinaison entre le préfixe et le nom du projet pour le rendre unique et augmenter la lisibilité. |
Nom | string | Une combinaison d'ID d'exécution et de nom pour le rendre unique et augmenter la lisibilité. |
Nom de l’ensemble de tests | string | Une combinaison clé/nom d'ensemble de test pour le rendre unique et améliorer la lisibilité. |
Type d’exécution | string | Type d’exécution : Manuel, Automatisé, Aucun ou Mixte. |
Source | string | Source de l'exécution : TestManager, Orchestrator ou Studio. |
Mesure | Saisie de texte |
---|---|
Nombre total d’exécutions de tests | Integer |
Nombre de types d’exécutions manuelles | Integer |
Nombre de types d’exécutions automatisées | Integer |
Nombre de types d’exécutions mixtes | Integer |
Durée en secondes de l’exécution du test | Integer |
Cas de test
Les tableaux suivants décrivent les dimensions et les mesures disponibles pour les cas de test.
Cote | Saisie de texte | Description |
---|---|---|
Nom du projet | GUID | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
Nom | string | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
Nom du paquet | string | S/O |
Mesure | Saisie de texte |
---|---|
Nombre total de cas de test | Integer |
Nombre de journaux de cas de test réussis | Integer |
Nombre de journaux de cas de test ayant échoué | Integer |