- Démarrage
- Gestion de projet
- Documents
- Travailler avec l’analyse de l’impact des modifications
- Créer des scénarios de test
- Affectation de cas de test aux exigences.
- Clonage des cas de test
- Exporter des cas de test
- Lier des cas de test à Test Manager dans Studio
- Delete test cases
- Cas de test manuels
- Importer des cas de test manuels
- Documenter les cas de test avec Task Capture
- Paramètres
- Activation de la gouvernance au niveau du projet
- Désactivation de la gouvernance au niveau du projet
- Activation de la gouvernance au niveau des cas de test
- Désactivation de la gouvernance au niveau du cas de test
- Gérer les approbateurs pour les cas de test régis
- Gérer les cas de test régis à l’état En cours
- Gérer les cas de test régis à l’état En révision
- Gérer les objets régis à l'état Signé
- Gérer les commentaires pour les cas de test régis
- Appliquer des filtres et des vues
- Importer des ensembles de test Orchestrator
- Creating test sets
- Ajouter des cas de test à un ensemble de test
- Attribuer des utilisateurs par défaut dans l'exécution de l'ensemble de tests
- Activation de la couverture des activités
- Activer Healing Agent
- Configuration d'ensembles de test pour des dossiers et des robots d'exécution spécifiques
- Remplacer les paramètres
- Cloner des ensembles de tests
- Exporter des ensembles de tests
- Appliquer des filtres et des vues
- FAQ - Parité des fonctionnalités - Test Manager vs Orchestrator
- Exécution de tests manuels
- Exécuter des tests automatisés
- Exécuter des cas de test sans ensemble de tests
- Exécuter des tests mixtes
- Créer des exécutions en attente
- Appliquer un ordre d’exécution
- Réexécution des exécutions de test
- Planification des exécutions
- Résoudre les problèmes des exécutions automatisées
- Créer des tests automatisés
- Exécution de scénarios de performances
- Limitations connues des tests de performances
- Meilleures pratiques en matière de tests de performances
- Résolution des problèmes de tests de performances
- Tests d'accessibilité pour Test Cloud
- Rechercher avec Autopilot
- Opérations et utilitaires de projet
- Paramètres de Test Manager
- Intégration de l'outil de gestion du cycle de vie des applications (ALM)
- Intégration de l'API
- Résolution des problèmes
Guide de l'utilisateur de Test Manager
Limites de durée d'exécution
Cloud, serverless robots can run for a maximum of 60 minutes per test. On-premises robots can exceed this limit.
Limites de simultanéité
-
Maximum concurrent jobs: Up to 500 jobs can run concurrently using serverless robots.
-
Impact on virtual users (VUs): The number of achievable virtual users depends on multiplexing (multiple VUs per job). For example, with a multiplexing factor of 4, a scenario can scale up to 2,000 concurrent virtual users. The multiplexing capabilities for serverless robots are automatically detected during the dry run, and the resulting factor is reported in the application logs. Unlike on-premises machines, where the multiplexing factor can be manually overridden, this is not supported for serverless robots.
-
VPN constraints: When using a VPN, the effective concurrency depends on the VPN or gateway capacity.
- Default limit: ~250 concurrent jobs
- The actual limit may vary based on the gateway SKU and infrastructure capacity.
- If higher concurrency is required, customers should contact UiPath support or their account team to discuss VPN scaling options.
-
Execution duration: Serverless robots are limited to 60 minutes per execution
Types d'automatisation pris en charge
Les tests de performances sont actuellement limités aux automatisations liées au navigateur, aux API (HTTP WebRequest et aux automatisations du bureau. Par exemple, Integration Service ou les automatisations codées ne sont pas encore prises en charge.
Le mode Incognito/InPrivate n’est pas pris en charge pour les environnements locaux
Les exécutions de test de performances sur des machines locales ne prennent pas en charge l’automatisation du navigateur en mode Chrome Incognito ou en mode Edge InPrivate.
Cette limitation est due à des restrictions de sécurité du navigateur qui exigent que les extensions soient activées manuellement pour la navigation privée. Bien que l’extension du navigateur UiPath puisse être installée (par exemple, via la stratégie de groupe), elle ne peut pas être automatiquement activée en mode incognito, ce qui empêchera l’automatisation d’interagir avec le navigateur pendant l’exécution du test.
Additionally, Performance Testing creates new browser user directories for each execution. Enabling the extension for incognito mode would require manual configuration for each of these directories, making it impractical for automated scenarios. For more information, refer to the Alternative for enabling incognito mode section of the Studio documentation.
Cette limitation s’applique uniquement aux environnements locaux.
Dans les environnements sans serveur, le mode Incognito est pris en charge car la configuration du navigateur est entièrement gérée par UiPath.
Workaround: Run tests in standard browser mode.
Performance Testing crée son propre profil de navigateur et répertoire dédiés, garantissant qu’il n’interfère pas avec le profil par défaut de l’utilisateur. Cette configuration permet aux tests de s’exécuter dans un environnement sandboxed, comme en mode navigation privée. Après l’exécution, tous les répertoires de navigateur créés pour les tests sont nettoyés, de façon à ne laisser aucune donnée résidus.
Limites supplémentaires
- Infrastructure gaps:
ACR-VMsupport and elastic provisioning are not yet available, so automatic scaling of resources is currently not possible. - API access: Direct programmatic access to raw performance test data is not yet supported.
- Historical comparison: Test results from different historical runs cannot yet be compared.
- Autopilot and agentic support: Autopilot and agentic support are not available in the current release.
- Recordings displayed in the detail: Recording can be activated and viewd only in Orchestrator.