- Notes de version Cloud Insights
- Démarrage
- Accès et autorisations
- Notifications
- Interaction avec Insights
- Intégration d’Action Center
- Intégration d'Automation Hub
- Intégration d’Autopilot
- Intégration de Document Understanding
- Intégration des agents de réparation
- Intégrations de la surveillance des licences
- Intégration Maestro
- Intégration du Test Manager
- Vue d'ensemble (Overview)
- Activer la création de rapports avec Insights
- Modèle de données de Test Manager
- Surveillance en temps réel
- Exportation de données en temps réel
- Licences
- Résolution des problèmes

Insights
La structure du modèle de données de Test Manager repose sur les concepts suivants :
|
Concept |
Description |
|---|---|
|
Explore |
Le point de départ de l'exploration. Les données sont réaffichées via des Explorations, qui peut être considéré comme une entité générale correspondant aux champs qu'elle contient. |
|
Consultation (View) |
Une vue représente une table de données, que cette table soit native de votre base de données ou qu'elle ait été créée à l'aide de la fonctionnalité de table dérivée de Looker. Dans chaque vue se trouvent des définitions de champ, dont chacune correspond généralement à une colonne de la table sous-jacente ou à un calcul dans Looker. |
|
Dimension |
Dans le cadre d'une vue dans l'exploration, la dimension est un champ pouvant être groupé et peut être utilisée pour filtrer les résultats de la requête. Il peut s'agir de l'un des éléments suivants :
|
|
Measure |
Dans le cadre d'une vue dans l'exploration, le paramètre Mesure déclare une nouvelle mesure (agrégation) et spécifie un nom pour cette mesure. Exemples de types de mesures :
integer, string.
|
Journaux de cas de test
Les tableaux suivants décrivent les dimensions et les mesures disponibles pour les journaux de cas de test.
| Cote | Saisie de texte | Description |
|---|---|---|
| Adresse e-mail du bénéficiaire | string | L’adresse e-mail de l’utilisateur auquel un cas de test a été affecté. |
| Nom du projet d’automatisation | string | Le nom de l'automatisation liée au cas de test. |
| Date dʹéchéance | Date | La date à laquelle un cas de test manuel était planifié pour avoir été exécuté. |
| Démarrage de l’exécution | Date | La date à laquelle l'exécution du test a commencé. |
| Exécuté par | string | Le nom d'utilisateur ou le nom du robot qui a exécuté le test. |
| Fin d'exécution (Execution End) | Date | La date à laquelle l'exécution du test s'est terminée. |
| ExecutionType | string | Le type d'exécution :
|
| Nom de la machine hôte | string | Nom de la machine. |
| Project Name | string | Nom du projet Test Manager. |
| Préfixe du projet | string | Le préfixe du projet Test Manager. |
| Date de signalement | Date | La date à laquelle le test a été exécuté. C'est une date sans heure et aussi sans fuseau horaire. |
| Résultat | string | Le résultat du cas de test : Réussi, Échec ou Aucun. |
| Nom du Robot (Robot Name) | string | Le nom du Robot qui a exécuté le test. |
| Nom de l’exécution de test | string | Le nom de l'exécution de test. |
| Mesures | Saisie de texte | Description |
|---|---|---|
| Nombre total | Integer | Le nombre total de journaux de cas de test. |
| Nombre de réussites | string | Le nombre de journaux de cas de test réussis. |
| Nombre d’échecs (technique) | Integer | Les résultats techniques indiquent les résultats comme ayant échoué lorsqu'une exception se produit lors de l'exécution. |
| Nombre sans résultat (technique) | Integer | Les résultats techniques n’indiquent aucun résultat lorsqu’une exception se produit lors de l’exécution. |
| DurationInSeconds | Integer | Durée totale d'exécution en secondes. |
Prérequis
Les tableaux suivants répertorient les dimensions et mesures disponibles pour les exigences.
| Cote | Saisie de texte | Description |
|---|---|---|
| Project Name | string | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
| Nom | string | Une combinaison entre la clé de l'exigence et son nom, visant à la rendre unique et à augmenter la lisibilité. |
| Mesure | Saisie de texte | Description |
|---|---|---|
| Nombre total de cas de test | Integer | Le nombre de cas de test affectés à un prérequis. |
| Nombre de cas de test automatisés | Integer | Le nombre de cas de test automatisés affectés à un prérequis. |
| Nombre de cas de test manuels | Integer | Le nombre de cas de test manuels affectés à un prérequis. |
| Nombre de cas de test réussis | Integer | Le nombre de cas de test affectés à une exigence ayant réussi lors de la dernière exécution de test. |
| Nombre de cas de test ayant échoué | Integer | Le nombre de cas de test affectés à une exigence ayant échoué lors de la dernière exécution de test. |
| Aucun nombre de cas de test | Integer | Le nombre de cas de test affectés à une exigence sans résultat lors de la dernière exécution de test. |
| Nombre total d’exigences | Integer | Le nombre total d’exigences. |
Ensembles de tests
| Cote | Saisie de texte | Description |
|---|---|---|
| Project Name | string | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
| Nom | string | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
| Nom de robot | string | Le nom du Robot qui a exécuté l’ensemble de test. |
| Source | string | La source de l’ensemble de tests : Orchestrator ou Test Manager. |
| Mesure | Saisie de texte | Description |
|---|---|---|
| Nombre total d’ensembles de tests | Integer | Le nombre d’ensembles de tests. |
| Nombre de cas de test automatisés | string | Le nombre de cas de test automatisés dans l’ensemble de tests. |
| Nombre de cas de test manuels | Integer | Nombre de cas de test manuels dans l’ensemble de test. |
Exécution de test
Le tableau suivant détaille les dimensions et mesures disponibles pour les exécutions de test.
| Cote | Saisie de texte | Description |
|---|---|---|
| Project Name | string | Une combinaison entre le préfixe et le nom du projet pour le rendre unique et augmenter la lisibilité. |
| Nom | string | Une combinaison d'ID d'exécution et de nom pour le rendre unique et augmenter la lisibilité. |
| Nom de l’ensemble de tests | string | Une combinaison clé/nom d'ensemble de test pour le rendre unique et améliorer la lisibilité. |
| Type d’exécution | string | Type d’exécution : Manuel, Automatisé, Aucun ou Mixte. |
| Source | string | Source de l'exécution : TestManager, Orchestrator ou Studio. |
| Mesure | Saisie de texte |
|---|---|
| Nombre total d’exécutions de tests | Integer |
| Nombre de types d’exécutions manuelles | Integer |
| Nombre de types d’exécutions automatisées | Integer |
| Nombre de types d’exécutions mixtes | Integer |
| Durée en secondes de l’exécution du test | Integer |
Cas de test
Les tableaux suivants décrivent les dimensions et les mesures disponibles pour les cas de test.
| Cote | Saisie de texte | Description |
|---|---|---|
| Nom du projet | GUID | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
| Nom | string | Une combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité. |
| Nom du paquet | string | S/O |
| Mesure | Saisie de texte |
|---|---|
| Nombre total de cas de test | Integer |
| Nombre de journaux de cas de test réussis | Integer |
| Nombre de journaux de cas de test ayant échoué | Integer |