- Démarrage
- Gestion de projet
- Documents
- Travailler avec l’analyse de l’impact des modifications
- Créer des scénarios de test
- Affectation de cas de test aux exigences.
- Clonage des cas de test
- Exporter des cas de test
- Lier des cas de test à Test Manager dans Studio
- Delete test cases
- Cas de test manuels
- Importer des cas de test manuels
- Documenter les cas de test avec Task Capture
- Paramètres
- Activation de la gouvernance au niveau du projet
- Désactivation de la gouvernance au niveau du projet
- Activation de la gouvernance au niveau des cas de test
- Désactivation de la gouvernance au niveau du cas de test
- Gérer les approbateurs pour les cas de test régis
- Gérer les cas de test régis à l’état En cours
- Gérer les cas de test régis à l’état En révision
- Gérer les objets régis à l'état Signé
- Gérer les commentaires pour les cas de test régis
- Appliquer des filtres et des vues
- Importer des ensembles de test Orchestrator
- Creating test sets
- Ajouter des cas de test à un ensemble de test
- Attribuer des utilisateurs par défaut dans l'exécution de l'ensemble de tests
- Activation de la couverture des activités
- Activer Healing Agent
- Configuration d'ensembles de test pour des dossiers et des robots d'exécution spécifiques
- Remplacer les paramètres
- Cloner des ensembles de tests
- Exporter des ensembles de tests
- Appliquer des filtres et des vues
- FAQ - Parité des fonctionnalités - Test Manager vs Orchestrator
- Exécution de tests manuels
- Exécuter des tests automatisés
- Exécuter des cas de test sans ensemble de tests
- Exécuter des tests mixtes
- Créer des exécutions en attente
- Appliquer un ordre d’exécution
- Réexécution des exécutions de test
- Planification des exécutions
- Résoudre les problèmes des exécutions automatisées
- Tests de performances - Vue d'ensemble
- Prérequis logiciels et systèmes
- Configuration requise pour le système de robot local
- Créer des tests automatisés
- Exécution de scénarios de performances
- Limitations connues des tests de performances
- Meilleures pratiques en matière de tests de performances
- Résolution des problèmes de tests de performances
- Tests d'accessibilité pour Test Cloud
- Rechercher avec Autopilot
- Opérations et utilitaires de projet
- Paramètres de Test Manager
- Intégration de l'outil de gestion du cycle de vie des applications (ALM)
- Intégration de l'API
- Résolution des problèmes
Guide de l'utilisateur de Test Manager
Avant de créer et d'exécuter des scénarios de tests de performances dans Test Manager, assurez-vous que votre organisation et votre locataire répondent aux prérequis d'infrastructure, de robot et d'automatisation de test. La configuration dépend du type de robot utilisé pour exécuter le chargement : Robots cloud ou Robots Unattended.
Configuration requise de Studio
Les tests de performance réutilisent vos cas de test fonctionnels automatisés existants. Assurez-vous de créer vos tests Studio en fonction des conditions suivantes :
- Utilisez une version d’UiPath Studio égale ou supérieure à 2025.10.3.
- Utilisez un type de projet Automatisation de test.
- Utilisation des dernières versions de package d’activités :
System.Activitiesversion 25.4.2 ou ultérieureTesting.Activitiesversion 25.10.0 ou ultérieureUIAutomation.Activitiesversion 25.10.2 ou ultérieureWebAPI.Activitiesversion 2.1.0 ou versions ultérieures
Configuration requise pour Robot
Configurez les types de robots dont vous avez besoin.
- Les robots cloud sans serveur consomment des Platform Units et sont adaptés aux tests Web et d'API. Elles s'adaptent automatiquement dans Test Cloud, mais ne prennent pas en charge les automatisations de poste de travail.
- Les robots locaux consomment 250 runtimes par bundle d'utilisateurs virtuels et sont requis pour les tests de performances du bureau. Ces runtimes doivent être attribués dans des modèles de machine dans Orchestrator. Reportez-vous à la configuration système requise pour les robots locaux.
Sources de données (entités Data Fabric)
Les scénarios de performances nécessitent souvent des données de test dynamiques à grande échelle. Test Manager peut se connecter aux entités Data Fabric, qui serviront de source de données de test paramétrées lors de l’exécution du scénario. Cela garantit une entrée réaliste et diversifiée pour les utilisateurs virtuels simultanés.