UiPath Documentation
test-manager
latest
false
Important :
La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
UiPath logo, featuring letters U and I in white

Guide de l'utilisateur de Test Manager

Dernière mise à jour 28 avr. 2026

Rapports avec Insights

Prérequis

Pour activer les rapports avec Insights, procédez comme suit :

  1. Activez le service Insights sur le même locataire que votre instance Test Manager.

    Vous avez besoin d'un rôle d'administrateur d'organisation Automation Cloud pour activer un service.

  2. Dans Test Manager, activez le paramètre Activer la création de rapports avec Insights (Enable reporting with Insights) au niveau du locataire.

    Vous avez besoin d'un rôle de locataire administrateur Test Manager pour activer l'intégration avec Insights.

    Pour plus d'informations sur l'activation du paramètre, consultez Paramètres au niveau du locataire.

Vue d'ensemble (Overview)

Une fois que vous aurez activé l’intégration d’Insights dans votre locataire Test Manager, vous pourrez accéder aux analyses de tous vos projets de test au sein de ce locataire. Insights récupère les données de Test Manager, en fonction d'un modèle de données spécifique, et les présente via le tableau de bord prédéfini Rapport d'exécution de Test Manager . Ce tableau de bord fournit une vue d’ensemble de toutes vos exécutions de test au sein de votre locataire.

Figure 1. Tableau de bord du rapport d'exécution de Test Manager

Remarque : lorsque vous activez la création de rapports avec Insights, les données de tous les projets Test Manager sont téléchargées vers Insights. Par conséquent, tous les utilisateurs ayant accès à Insights pourront générer des rapports sur ces projets, indépendamment des autorisations dont ils disposent sur Test Manager.

Modèle de données

Insights utilise les journaux de cas de test de Test Manager pour générer les tableaux de bord personnalisables. Pour plus de détails sur le modèle de données utilisé par Insights pour générer les tableaux de bord, consultez la section Modèle de données de Test Manager .

Remarque : dans le modèle de données de Test Manager, les journaux de cas de test contiennent deux types de résultats : techniques et fonctionnels. Dans la plupart des cas, ces résultats sont les mêmes, sauf si une erreur technique apparaît lors de l'exécution. Les erreurs techniques peuvent inclure des interruptions de l'infrastructure, des erreurs d'automatisation ou d'autres déclencheurs non fonctionnels. Dans l'un de ces scénarios, les résultats techniques labelliseront le test comme ayant échoué. Les résultats fonctionnels sont destinés à refléter uniquement le résultat des vérifications métier. Ils indiquent donc aucun résultat en cas d'erreurs en raison de l'absence de résultat fiable.

Building Insights dashboards based on custom fields

You can create Insights dashboards for Requirements and Test Sets, based on the custom fields associated with these data objects.

You can work with a maximum of 5 custom-field selectors and 5 dimensions.

  1. Log in to your platform and navigate to Insights.
  2. Go to Dashboards and add a dashboard.
  3. Open the dashboard and select Edit Dashboard.
  4. Hover the toolbar and select Add.
    Figure 2. Add Insights dashboard

  5. Select Visualization.
  6. Under Test Manager, select the data object for which you want to create a dashboard. For example, let’s select Requirements.
  7. Expand the data object category. For our example, expand Requirements. Note that you can have a maximum of 5 custom-field selectors (listed as Custom Field Selector 1 and so on, under Filter-Only Fields) and 5 dimensions (listed as Custom Field 1 and so on, under Dimensions). There is a 1:1 correspondence between the 5 custom-field selectors and the 5 custom-field dimensions. For example, Custom Field Selector 1 corresponds to Custom Field 1.
  8. From Filter-Only Fields, select one or more custom-field selectors.
    Figure 3. Custom field selection

  9. Expand the dropdown to see all the custom fields available in the tenant for your data object. The example below shows the custom fields available in the sample tenant, for requirements.
    Figure 4. Custom field values

  10. Select the custom field values for your custom-field selectors.
  11. From Dimensions, select the custom fields. For example, select Custom Field 1, Custom Field 2, and Custom Field 3.
  12. From Custom Field Filters, select the values you need. For example, select Name and Project Name.
  13. From Measures, select the values you need. For this example, select Total Test Case Count.
  14. The values you selected are displayed on the right-hand side, in the workspace editor.
    Figure 5. Measures

  15. From the upper, right-hand side of the workspace, select Run.
    Figure 6. Run dashboard

  16. Wait for the data to load. The data can be visualized in multiple formats: table, graphs, or charts.
  17. (Optional) Sort your data per column. For example, sort your data by priority.
  18. From the upper, right-hand side of the workspace editor, select Save.
  19. Select the pencil icon or click inside the table name to give your dashboard an official name. In our example, we named the dashboard “Custom Field for Requirement”.
  20. Resize the table by dragging its edges.
  21. From the toolbar menu, add a filter for your dashboard.
  22. Select Filters > Add Filter.
  23. Add filters for your data object, in our case Requirements. Expand the data object (Requirements), expand Custom Field Filters and pick a selector (for example, Custom Field Filter Selector 1).
    Figure 7. Filters

  24. In the Add Filter dialog, continue configuring your filter (title, control, default value) and then select Add. For this example, we chose a radio button.
    Figure 8. Add filter

  25. Expand the data object (Requirements) again and pick the selector value. For this example, we selected Custom Field Filters > Custom Field Filter 1.
    Figure 9. Custom field filter

  26. In the Add Filter dialog, continue the configuration (title, control, filter options) and select Add. For our example, we chose Advanced from the Control field, and is any value from the Configure Default Value field.
    Figure 10. Filter configuration

  27. In your dashboard, check the filter you added. For this example, we added Custom Field Filter Selector 1 and Custom Field Filter 1. Below the first filter, expand the is menu, select a value (Priority), and select Apply. Below the second filter, expand the is any value menu, select an operator and a value (contains High or Medium), and select Apply.
    Figure 11. Filter values

  28. Select the Refresh button from the upper, right-hand corner of the workspace editor.

Modèle de données de Test Manager

Termes et concepts

La structure du modèle de données de Test Manager repose sur les concepts suivants :

Concept

Description

Explore

Le point de départ de l'exploration.

Les données sont réaffichées via des Explorations, qui peut être considéré comme une entité générale correspondant aux champs qu'elle contient.

Consultation (View)

Une vue représente une table de données, que cette table soit native de votre base de données ou qu'elle ait été créée à l'aide de la fonctionnalité de table dérivée de Looker.

Dans chaque vue se trouvent des définitions de champ, dont chacune correspond généralement à une colonne de la table sous-jacente ou à un calcul dans Looker.

Dimension

Dans le cadre d'une vue dans l'exploration, la dimension est un champ pouvant être groupé et peut être utilisée pour filtrer les résultats de la requête.

Il peut s'agir de l'un des éléments suivants :

  • Un attribut qui a une association directe avec une colonne dans une table sous-jacente.
  • Un fait ou une valeur numérique.
  • Valeur dérivée calculée sur la base des valeurs des autres champs d'une seule ligne.

Measure

Dans le cadre d'une vue dans l'exploration, le paramètre Mesure déclare une nouvelle mesure (agrégation) et spécifie un nom pour cette mesure.

Exemples de types de mesures : integer, string.

Dimensions et mesures

Remarque : les dimensions et les mesures pour les exigences, les ensembles de test et les exécutions de test sont disponibles uniquement dans Test Manager via Test Cloud.
Journaux de cas de test

Les tableaux suivants décrivent les dimensions et les mesures disponibles pour les journaux de cas de test.

Tableau 1. Dimensions des journaux de cas de test
CoteSaisie de texteDescription
Adresse e-mail du bénéficiairestringL’adresse e-mail de l’utilisateur auquel un cas de test a été affecté.
Nom du projet d’automatisationstringLe nom de l'automatisation liée au cas de test.
Date dʹéchéanceDateLa date à laquelle un cas de test manuel était planifié pour avoir été exécuté.
Démarrage de l’exécutionDateLa date à laquelle l'exécution du test a commencé.
Exécuté parstringLe nom d'utilisateur ou le nom du robot qui a exécuté le test.
Fin d'exécution (Execution End)DateLa date à laquelle l'exécution du test s'est terminée.
ExecutionTypestringLe type d'exécution :
  • Automatisé pour les tests automatisés.
  • Manuel pour les tests manuels.
  • Aucun pour les cas de test qui ne sont pas exécutés et qui sont à l'état En attente (Pending ).
Nom de la machine hôtestringNom de la machine.
Project NamestringNom du projet Test Manager.
Préfixe du projetstringLe préfixe du projet Test Manager.
Date de signalementDateLa date à laquelle le test a été exécuté. C'est une date sans heure et aussi sans fuseau horaire.
RésultatstringLe résultat du cas de test : Réussi, Échec ou Aucun.
Nom du Robot (Robot Name)stringLe nom du Robot qui a exécuté le test.
Nom de l’exécution de teststring Le nom de l'exécution de test.
Tableau 2. Mesures des journaux de cas de test
MesuresSaisie de texteDescription
Nombre totalIntegerLe nombre total de journaux de cas de test.
Nombre de réussitesstringLe nombre de journaux de cas de test réussis.
Nombre d’échecs (technique)IntegerLes résultats techniques indiquent les résultats comme ayant échoué lorsqu'une exception se produit lors de l'exécution.
Nombre sans résultat (technique)IntegerLes résultats techniques n’indiquent aucun résultat lorsqu’une exception se produit lors de l’exécution.
DurationInSecondsIntegerDurée totale d'exécution en secondes.
Prérequis

Les tableaux suivants répertorient les dimensions et mesures disponibles pour les exigences.

Tableau 3. Dimensions des exigences
CoteSaisie de texteDescription
Project NamestringUne combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité.
NomstringUne combinaison entre la clé de l'exigence et son nom, visant à la rendre unique et à augmenter la lisibilité.
Tableau 4. Mesures des exigences
MesureSaisie de texteDescription
Nombre total de cas de testIntegerLe nombre de cas de test affectés à un prérequis.
Nombre de cas de test automatisésIntegerLe nombre de cas de test automatisés affectés à un prérequis.
Nombre de cas de test manuelsIntegerLe nombre de cas de test manuels affectés à un prérequis.
Nombre de cas de test réussisIntegerLe nombre de cas de test affectés à une exigence ayant réussi lors de la dernière exécution de test.
Nombre de cas de test ayant échouéIntegerLe nombre de cas de test affectés à une exigence ayant échoué lors de la dernière exécution de test.
Aucun nombre de cas de testIntegerLe nombre de cas de test affectés à une exigence sans résultat lors de la dernière exécution de test.
Nombre total d’exigencesIntegerLe nombre total d’exigences.
Ensembles de tests
Les tableaux suivants décrivent les dimensions et les mesures disponibles pour les ensembles de test.
Remarque : pour les cas de test attribués, la vue de l’ensemble de tests contient des informations sur les affectations de tests statiques.
Tableau 5. Dimensions de l’ensemble de tests
CoteSaisie de texteDescription
Project NamestringUne combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité.
NomstringUne combinaison du nom du projet et du préfixe du projet visant à le rendre unique et à augmenter la lisibilité.
Nom de robotstringLe nom du Robot qui a exécuté l’ensemble de test.
SourcestringLa source de l’ensemble de tests : Orchestrator ou Test Manager.
Tableau 6. Mesures de l’ensemble de tests
MesureSaisie de texteDescription
Nombre total d’ensembles de testsIntegerLe nombre d’ensembles de tests.
Nombre de cas de test automatisésstringLe nombre de cas de test automatisés dans l’ensemble de tests.
Nombre de cas de test manuelsIntegerNombre de cas de test manuels dans l’ensemble de test.
Exécution de test

Le tableau suivant détaille les dimensions et mesures disponibles pour les exécutions de test.

Tableau 7. Dimensions des exécutions de test
CoteSaisie de texteDescription
Project NamestringUne combinaison entre le préfixe et le nom du projet pour le rendre unique et augmenter la lisibilité.
NomstringUne combinaison d'ID d'exécution et de nom pour le rendre unique et augmenter la lisibilité.
Nom de l’ensemble de testsstringUne combinaison clé/nom d'ensemble de test pour le rendre unique et améliorer la lisibilité.
Type d’exécutionstringType d’exécution : Manuel, Automatisé, Aucun ou Mixte.
SourcestringSource de l'exécution : TestManager, Orchestrator ou Studio.
Table 8. Mesures d’exécution de test
MesureSaisie de texte
Nombre total d’exécutions de testsInteger
Nombre de types d’exécutions manuellesInteger
Nombre de types d’exécutions automatiséesInteger
Nombre de types d’exécutions mixtesInteger
Durée en secondes de l’exécution du testInteger

Cette page vous a-t-elle été utile ?

Connecter

Besoin d'aide ? Assistance

Vous souhaitez apprendre ? UiPath Academy

Vous avez des questions ? UiPath Forum

Rester à jour