- Notes de publication
- Démarrage
- Paramétrage et configuration
- Projets d'automatisation
- À propos de la publication de projets d'automatisation
- Conception d'automatisations
- Gérer les package d’activités
- Configuration des paramètres du projet d'activité
- Signature de paquets
- Gouvernance
- Import des entités
- Modern Design Experience
- Lier un projet à une idée dans Automation Hub
- Utilisation du gestionnaire de données
- Dépendances
- Types de workflows
- Comparaison de fichiers
- Meilleures pratiques d'automatisation
- Intégration du contrôle de code source
- Débogage
- Analyseur de workflow
- À propos de l'analyseur de workflow
- ST-NMG-001 - Convention d'affectation de noms des variables
- ST-NMG-002 - Convention d'affectation de noms des arguments
- ST-NMG-004 - Duplication du nom complet
- ST-NMG-005 - La variable remplace une autre
- ST-NMG-006 - La variable remplace l'argument
- ST-NMG-008 - Longueur de variable dépassée
- ST-NMG-009 - Ajouter un préfixe aux variables DataTable
- ST-NMG-011 - Ajouter un préfixe aux arguments Datatable
- ST-NMG-012 - Valeurs par défaut de l'argument
- ST-NMG-016 : longueur d'argument dépassée
- ST-DBP-002 - Nombre élevé d'arguments
- ST-DBP-003 - Bloc d'interception vide
- ST-DBP-007 - Plusieurs couches de l'organigramme
- ST-DBP-020 - Propriétés de sortie non définies
- ST-DBP-023 : Workflow vide
- ST-DBP-024 - Vérification de l’activité de persistance
- ST-DBP-025 - Condition préalable à la sérialisation des variables
- ST-DBP-026 - Utilisation de l’activité Délai
- ST-DBP-027 - Pratiques exemplaires de persistance
- ST-DBP-028 - Condition préalable à la sérialisation des arguments
- ST-MRD-002 - Valeurs par défaut des noms d'activités
- ST-MRD-004 - Activités inaccessibles
- ST-MRD-005 - Séquences redondantes
- ST-MRD-007 - Clauses If imbriquées
- ST-MRD-008 - Séquence vide
- ST-MRD-009 - Activités profondément imbriquées
- ST-MRD-011 - Utilisation de la ligne d'écriture
- ST-MRD-017 - Incomplet si (Incomplete If)
- ST-USG-005 - Arguments d'activité codée en dur
- ST-USG-009 - Variables inutilisées
- ST-USG-010 - Dépendances inutilisées
- ST-USG-014 - Restrictions sur les paquets (Package Restriction)
- ST-USG-020 - Nombre minimum de messages consignés
- ST-USG-024 - Non utilisé, sauvegardé pour plus tard (Unused Saved for Later)
- ST-USG-025 - Utilisation abusive de la valeur enregistrée (Saved Value Misuse)
- ST-USG-026 - Restrictions d'activité (Activity Restrictions)
- ST-USG-027 - Packages requis
- ST-USG-028 - Restreindre l'invocation des modèles de fichier
- ST-USG-027 - Balises requises
- ST-USG-034 – URL Automation Hub
- Variables
- Arguments
- Noms d'espace importés
- Automatisation Attended basée sur déclencheur
- Enregistrement
- Éléments de l'interface utilisateur
- À propos des éléments d'interface utilisateur
- Propriétés des activités de l'interface utilisateur
- Exemple d'utilisation des méthodes de saisie
- Méthodes de sortie ou de capture de données d'écran
- Exemple d'utilisation de méthodes de sortie ou de capture de données d'écran
- Génération de tables à partir de données non structurées
- Capture relative de données
- Flux de contrôle
- Sélecteurs
- Réf. d’objets
- Capture de données
- Automatisation des images et des textes
- À propos de l'automatisation des images et des textes
- Activités liées à la souris et au clavier
- Exemple d'utilisation de l'automatisation de la souris et du clavier
- Les activités de type texte
- Exemple d'utilisation d'automatisation de texte
- Activités de type OCR
- Activités de type image
- Exemple d'utilisation de l'automatisation d'image et d'OCR
- Automatisation des technologies Citrix
- Automatisation de RDP
- Automatisation de Salesforce
- Automatisation SAP
- Automatisation VMware Horizon
- Journalisation
- Outil ScreenScrapeJavaSupport
- Protocole Webdriver
- Suite de tests - Studio
- Introduction
- Test d'application
- Cas de test
- Test RPA
- Modèle d’exécution
- Modèles de cas de test
- Simulations
- Automatisation de test d'API
- Extensions
- Résolution des problèmes
- À propos de la résolution des problèmes
- Prise en charge et limitations de Microsoft App-V
- Résolution des problèmes rencontrés avec Internet Explorer x64
- Problèmes rencontrés avec Microsoft Office
- Identification des éléments d'IU dans PDF avec options d'accessibilité
- Réparation de la prise en charge d'Active Accessibility
- Automatisation des applications exécutées sous un autre utilisateur Windows
- La validation des projets volumineux hérités depuis Windows prend plus de temps que prévu
Guide de l’utilisateur de Studio
Automatisation de test d'API
Studio prend en charge les projets d’automatisation de test d'API grâce à son intégration avec Postman, un outil de développement logiciel pour effectuer des appels de test vers les API. Cette intégration inclut également Newman, un exécuteur de collection de ligne de commande pour Postman pour exécuter et tester une collection directement à partir de la ligne de commande.
Pour importer une collection Postman dans Studio, utilisez l'assistant Nouveau service pour les bibliothèques et accédez à la collection Postman à l'aide d'une clé API générale, que vous pouvez générer à partir de la section Clés API.
Les collections importées peuvent être utilisées pour tester des projets. Des détails sur les conditions préalables de Postman sont disponibles ici.
.nupkg
localement ou dans Orchestrator, puis installées en tant que dépendances dans des projets d’automatisation de test.
L’exemple suivant utilise une collecte de données définie dans Postman, l’importe dans une bibliothèque Studio, publie la bibliothèque avec la collection, l’installe dans un projet de test et utilise des activités de test faisant partie du module UiPath.Testing.Activities pour vérifier l’utilisation des données.
Les cas de test sont conçus pour un workflow qui s’applique automatiquement aux prêts et récupère les données de prêt pour les clients des banques.
Pour vérifier les conditions préalables d’installation de Postman et Newman, lisez cette page.
Dans Postman, définissez une collection de données ou importez-en une existante dans votre espace de travail actuel. Nous avons créé une collecte de données pour demander un prêt, récupérer et supprimer les détails du prêt. Lorsqu’elle est utilisée dans un projet de test d'API, cette collection vérifie si la logique de notre workflow est correcte.
Pour importer une collection dans Studio, créez un projet de bibliothèque et utilisez la fenêtre Nouveau service (New Service). L'accès à la collection est accordé par l'intermédiaire de la clé d'API Postman. Ajoutez cette clé dans le champ Fichier ou Lien (File or Link) et cliquez sur Charger (Load).
Sélectionnez uniquement les points de terminaison que vous souhaitez charger dans votre projet et ajoutez un nouvel espace de noms si nécessaire.
Cochez la case Collections liées afin d'utiliser un lien pour que la nouvelle version de votre collection soit exécutée dans le runtime, au lieu d’une version stockée localement. Cliquez sur Enregistrer une fois que vous avez terminé.
Une fois la collection importée dans la bibliothèque Studio, ses points de terminaison sont automatiquement transformés en activités, disponibles dans l’onglet Activités, dans l’espace de noms que vous avez précédemment défini.
Dans notre exemple, un fichier séquence distinct a été créé pour chaque activité générée à partir des points de terminaison.
""
) dans le panneau Propriétés.
Les valeurs de données définies dans la collection Postman sont importées sous forme d’arguments :
.nupkg
.
- Créez un projet de test dans Studio en utilisant le type de projet Automatisation de test.
- Installez la bibliothèque publiée en tant que dépendance à l’aide de la fenêtre Gérer les packages.
- Les fichiers de séquence précédemment définis dans la bibliothèque sont maintenant disponibles dans le panneau Activités dans l’espace de noms de la bibliothèque, ainsi que les activités générées par l’importation Postman.
- Utilisez ces activités dans votre projet d’automatisation des tests d'API, combinées à des activités faisant partie du pack UiPath.Testing.Activities. Nous avons créé un projet de test pour vérifier les données saisies lors de la demande de prêt dans notre application de démonstration. Ce petit test utilise un ensemble de variables codées en dur, visibles ici dans le panneau Propriétés :
Ce processus de test simple a été utilisé comme un test de fumée, pour vérifier si l'application a répondu correctement. Plusieurs de ces tests peuvent être créés dans Studio, en fonction de vos besoins d'automatisation.
- Pour vérifier plusieurs scénarios dans un projet de test, allez au ruban, Nouveau > Cas de test centré sur les données. Importez l’ensemble de données, comme expliqué ici. Voici un exemple de ce cas de test. Les valeurs sont maintenant stockées dans des arguments, mappés dans l’activité.
- Sélectionnez Exécuter le fichier ou Déboguer le fichier avec des variations de données et choisissez les données à utiliser. Ceci est utile quand vous testez plusieurs scénarios avec plusieurs ensembles de données.
-
Après l’exécution du processus, les résultats sont visibles dans le panneau Sortie.