- Notes de publication
- Démarrage
- Paramétrage et configuration
- Projets d'automatisation
- Dépendances
- Types de workflows
- Comparaison de fichiers
- Meilleures pratiques d'automatisation
- Intégration du contrôle de code source
- Débogage
- L'outil de diagnostic (Diagnostic Tool)
- Analyseur de workflow
- À propos de l'analyseur de workflow
- ST-NMG-001 - Convention d'affectation de noms des variables
- ST-NMG-002 - Convention d'affectation de noms des arguments
- ST-NMG-004 - Duplication du nom complet
- ST-NMG-005 - La variable remplace une autre
- ST-NMG-006 - La variable remplace l'argument
- ST-NMG-008 - Longueur de variable dépassée
- ST-NMG-009 - Ajouter un préfixe aux variables DataTable
- ST-NMG-011 - Ajouter un préfixe aux arguments Datatable
- ST-NMG-012 - Valeurs par défaut de l'argument
- ST-NMG-016 : longueur d'argument dépassée
- ST-DBP-002 - Nombre élevé d'arguments
- ST-DBP-003 - Bloc d'interception vide
- ST-DBP-007 - Plusieurs couches de l'organigramme
- ST-DBP-020 - Propriétés de sortie non définies
- ST-DBP-023 : Workflow vide
- ST-DBP-024 - Vérification de l’activité de persistance
- ST-DBP-025 - Condition préalable à la sérialisation des variables
- ST-DBP-026 - Utilisation de l’activité Délai
- ST-DBP-027 - Pratiques exemplaires de persistance
- ST-DBP-028 - Condition préalable à la sérialisation des arguments
- ST-MRD-002 - Valeurs par défaut des noms d'activités
- ST-MRD-004 - Activités inaccessibles
- ST-MRD-005 - Séquences redondantes
- ST-MRD-007 - Clauses If imbriquées
- ST-MRD-008 - Séquence vide
- ST-MRD-009 - Activités profondément imbriquées
- ST-MRD-011 - Utilisation de la ligne d'écriture
- ST-MRD-017 - Incomplet si (Incomplete If)
- ST-USG-005 - Arguments d'activité codée en dur
- ST-USG-009 - Variables inutilisées
- ST-USG-010 - Dépendances inutilisées
- ST-USG-014 - Restrictions sur les paquets (Package Restriction)
- ST-USG-020 - Nombre minimum de messages consignés
- ST-USG-024 - Non utilisé, sauvegardé pour plus tard (Unused Saved for Later)
- ST-USG-025 - Utilisation abusive de la valeur enregistrée (Saved Value Misuse)
- ST-USG-026 - Restrictions d'activité (Activity Restrictions)
- ST-USG-027 - Packages requis
- Variables
- Arguments
- Noms d'espace importés
- Enregistrement
- Éléments de l'interface utilisateur
- À propos des éléments d'interface utilisateur
- Propriétés des activités de l'interface utilisateur
- Méthodes de saisie
- Exemple d'utilisation des méthodes de saisie
- Méthodes de sortie ou de capture de données d'écran
- Exemple d'utilisation de méthodes de sortie ou de capture de données d'écran
- Génération de tables à partir de données non structurées
- Capture relative de données
- Flux de contrôle
- Sélecteurs
- Réf. d’objets
- Capture de données
- Automatisation des images et des textes
- À propos de l'automatisation des images et des textes
- Activités liées à la souris et au clavier
- Exemple d'utilisation de l'automatisation de la souris et du clavier
- Les activités de type texte
- Exemple d'utilisation d'automatisation de texte
- Activités de type OCR
- Activités de type image
- Exemple d'utilisation de l'automatisation d'image et d'OCR
- Automatisation des technologies Citrix
- Automatisation de RDP
- Automatisation SAP
- Automatisation VMware Horizon
- Journalisation
- L'outil de migration MiseAlEchelleCoordonnees (ScaleCoordinates)
- Outil ScreenScrapeJavaSupport
- Protocole Webdriver
- StudioPro
- Introduction
- Test d'application
- Test RPA
- Automatisation de test d'API
- Simulations
- Extensions
- Résolution des problèmes
- Internet Explorer x64
- Problèmes d'interopérabilité avec Microsoft Office
- Identification des éléments d'IU dans PDF avec options d'accessibilité
- Identification des éléments d'IU après les mises à jour de Windows
- Applications JxBrowser
- Surveillance des événements utilisateur
- Java dans App-V
- Prise en charge et limitations de Microsoft App-V
- Résolution des problèmes Citrix
Test d'application
Studio Pro prend en charge la création de cas de test spécialisés pour effectuer des tests d’application automatisés, même dans VB ou C#. Les projets individuels d’automatisation de tests peuvent être créés dans Studio Pro, utilisés pour vérifier les données et inclus dans les scénarios de pipeline CI/CD.
Les tests d'application peuvent être effectués avec des cas de test et des cas de test centrés sur les données, avec des séquences qui utilisent des activités de vérification faisant partie du pack UiPath.Testing.Activities, ainsi qu'avec des activités d'autres packages.
Les cas de test pilotés centrés sur les données utilisent des données importées comme arguments dans le projet pour vérifier l’exécution des cas de test. L’ensemble des données ou seulement certaines valeurs peuvent être utilisées lors de l’exécution.
.xaml
soient invoqués.
Avec Studio Pro, les workflows peuvent être convertis en cas de test ou importés en tant que cas de test à partir d'autres projets. Les projets de tests d'application peuvent être publiés ultérieurement dans Orchestrator, gérés et exécutés à partir de la page Cas de test (Test Cases).
Utilisez le type de projet Automatisation de test à partir du mode arrière-plan > Commencer pour commencer à concevoir un cas de test.
.xaml
peuvent être ajoutés à un projet en utilisant l’option ruban Nouveau > Cas de test.
Les packages d'activités par défaut pour ce type de projet sont : UiPath.System.Activities, UiPath.UIAutomation.Activities et les activités de vérification de UiPath.Testing.Activities.
Les activités de vérification comme Vérifier l'attribut de contrôle (Verify Control Attribute), Vérifier l'expression (Verify Expression) et Vérifier l'expression avec l'opérateur (Verify Expression with Operator) servent à tester les données utilisées par vos workflows.
De telles activités se comportent différemment lorsqu’elles sont exécutées ou déboguées. Si une activité de vérification rencontre une erreur, l’exécution ne s’arrête pas pour lancer l’erreur, mais enregistre plutôt l’activité échouée dans le panneau Sortie. Si l’activité a été exécutée avec succès, elle est marquée dans le panneau.
Les tests d’application peuvent nécessiter de travailler avec de grands ensembles de données pour vérifier l’exécution du workflow et couvrir les cas importants. Plutôt que de créer plusieurs cas de test pour chaque ensemble de données, importez et utilisez vos ensembles de données à l’intérieur du projet avec le type de fichier Cas de test centré sur les données.
Dans le panneau Projet (Project), faites un clic droit sur un cas de test et sélectionnez Ajouter des données de test (Add Test Data).
Accédez à Fichier de variation pour choisir un fichier Excel à importer, puis sélectionnez une feuille de calcul.
InArgument
ainsi que les valeurs du fichier.
Ensuite, utilisez l'activité Vérifier l'expression avec l'opérateur (Verify Expression with Operator) pour comparer les valeurs avec celles du fichier Excel importé, à l'aide des opérateurs disponibles. Pour en savoir plus sur l'activité, cliquez ici.
L’exécution ou le débogage d’un cas de test centré sur les données peut se faire de deux façons, soit en utilisant toutes les données importées, soit en sélectionnant les données spécifiques à utiliser.
Cliquez sur les options Exécuter le fichier avec des variations de données ou Déboguer le fichier avec des variations de données à partir du ruban. La fenêtre Variations de données s’ouvre :
Sélectionnez les données que vous souhaitez utiliser pour exécuter ou déboguer le cas de test en cliquant sur la case à cocher à côté de chaque ligne. Cliquez sur Exécuter ou Déboguer après avoir fait la sélection.
Si le projet de cas de test utilise l'activité vérifier l'expression avec l'opérateur, l’exécution est effectuée une fois pour chaque ensemble de données sélectionné.
Si des modifications ont été apportées à l’ensemble de données Excel, supprimez et ajoutez à nouveau l’ensemble de données dans le projet de cas de test.
.xaml
dans le panneau Projet et en sélectionnant Supprimer les données de test :
Un nouvel ensemble de données peut être ajouté en sélectionnant l’option Ajouter des données de test.
Les workflows existants utilisés à des fins de test peuvent être convertis vers et depuis des cas de test à l'aide de Studio Pro. En outre, vous pouvez créer un projet de test RPA à partir de processus existants.
Pour convertir les workflows en cas de test, faites un clic droit sur les fichiers du panneau Projet et sélectionnez Convertir en cas de test :
Si vous avez déjà créé des workflows ou des cas de test, vous pouvez les importer dans votre projet actuel en faisant un clic droit sur le nœud du projet et en sélectionnant Importer les cas de test :
.xaml
importés sont ajoutés à l’arborescence du projet, sous forme de brouillon de cas de test.
De même que pour l'importation de collecte de données dans les bibliothèques Automatisation des tests API, vous pouvez importer ces collectes dans vos processus de test d'application à l'aide de l'assistant Nouveau service.
Notez que cette option est uniquement disponible pour les bibliothèques et les projets Automatisation de test (Test Automation) créés avec une licence Studio Pro.
.xaml
fichiers doivent être définis comme publiables à partir du panneau Projet (Project) .
La multi-sélection est disponible, il suffit de maintenir la touche Ctrl tout en sélectionnant chaque fichier individuellement, puis clic droit > Définir comme publiable.
.nupkg
.
La publication des cas de test est effectuée de la même manière que pour les autres types de projets. Utilisez l’option Publier (Publish) dans le ruban de Studio Pro. Vous pouvez définir une version du projet et utiliser les options de signature de certificat. Pour en savoir plus sur la publication de projets, cliquez ici.
Les cas de test peuvent être publiés sur Orchestrator, les valeurs par défaut de Robot ou un chemin d'accès personnalisé. Pour publier sur Orchestrator, assurez-vous que Robot ou UiPath Assistant est connecté à Orchestrator en suivant ces étapes.