- Notes de publication
- Démarrage
- Paramétrage et configuration
- Projets d'automatisation
- À propos de la publication de projets d'automatisation
- Conception d'automatisations
- Gérer les package d’activités
- Configuration des paramètres du projet d'activité
- Signature de paquets
- Gouvernance
- Import des entités
- Modern Design Experience
- Lier un projet à une idée dans Automation Hub
- Utilisation du gestionnaire de données
- Dépendances
- Types de workflows
- Flux de contrôle
- Comparaison de fichiers
- Meilleures pratiques d'automatisation
- Intégration du contrôle de code source
- À propos du contrôle de version
- Gestion de projets à l'aide de TFS
- Gestion de projets à l'aide de SVN
- Diff de workflow
- Débogage
- Journalisation
- L'outil de diagnostic (Diagnostic Tool)
- Analyseur de workflow
- À propos de l'analyseur de workflow
- ST-NMG-001 - Convention d'affectation de noms des variables
- ST-NMG-002 - Convention d'affectation de noms des arguments
- ST-NMG-004 - Duplication du nom complet
- ST-NMG-005 - La variable remplace une autre
- ST-NMG-006 - La variable remplace l'argument
- ST-NMG-008 - Longueur de variable dépassée
- ST-NMG-009 - Ajouter un préfixe aux variables DataTable
- ST-NMG-011 - Ajouter un préfixe aux arguments Datatable
- ST-NMG-012 - Valeurs par défaut de l'argument
- ST-NMG-016 : longueur d'argument dépassée
- ST-NMG-017 : le nom de la classe correspond à l’espace de noms par défaut
- ST-DBP-002 - Nombre élevé d'arguments
- ST-DBP-003 - Bloc d'interception vide
- ST-DBP-007 - Plusieurs couches de l'organigramme
- ST-DPB-010 : plusieurs instances de [workflow] ou [cas de test]
- ST-DBP-020 - Propriétés de sortie non définies
- ST-DBP-021 - Délai d'expiration codé en dur
- ST-DBP-023 : Workflow vide
- ST-DBP-024 - Vérification de l’activité de persistance
- ST-DBP-025 - Condition préalable à la sérialisation des variables
- ST-DBP-026 - Utilisation de l’activité Délai
- ST-DBP-027 - Pratiques exemplaires de persistance
- ST-DBP-028 - Condition préalable à la sérialisation des arguments
- ST-MRD-002 - Valeurs par défaut des noms d'activités
- ST-MRD-004 - Activités inaccessibles
- ST-MRD-005 - Séquences redondantes
- ST-MRD-007 - Clauses If imbriquées
- ST-MRD-008 - Séquence vide
- ST-MRD-009 - Activités profondément imbriquées
- ST-MRD-011 - Utilisation de la ligne d'écriture
- ST-MRD-017 - Incomplet si (Incomplete If)
- ST-USG-005 - Arguments d'activité codée en dur
- ST-USG-009 - Variables inutilisées
- ST-USG-010 - Dépendances inutilisées
- ST-USG-014 - Restrictions sur les paquets (Package Restriction)
- ST-USG-020 - Nombre minimum de messages consignés
- ST-USG-024 - Non utilisé, sauvegardé pour plus tard (Unused Saved for Later)
- ST-USG-025 - Utilisation abusive de la valeur enregistrée (Saved Value Misuse)
- ST-USG-026 - Restrictions d'activité (Activity Restrictions)
- ST-USG-027 - Packages requis
- ST-USG-028 - Restreindre l'invocation des modèles de fichier
- ST-USG-027 - Balises requises
- ST-USG-034 – URL Automation Hub
- Variables
- Arguments
- Noms d'espace importés
- Automatisations codées
- Introduction
- Enregistrement de services personnalisés
- Contextes Avant (Before) et Après (After)
- Génération du code
- Génération de cas de test codé à partir de cas de test manuels
- Automatisation Attended basée sur déclencheur
- Enregistrement
- Éléments de l'interface utilisateur
- À propos des éléments d'interface utilisateur
- Propriétés des activités de l'interface utilisateur
- Exemple d'utilisation des méthodes de saisie
- Méthodes de sortie ou de capture de données d'écran
- Exemple d'utilisation de méthodes de sortie ou de capture de données d'écran
- Génération de tables à partir de données non structurées
- Capture relative de données
- Sélecteurs
- Réf. d’objets
- Capture de données
- Automatisation des images et des textes
- À propos de l'automatisation des images et des textes
- Activités liées à la souris et au clavier
- Exemple d'utilisation de l'automatisation de la souris et du clavier
- Les activités de type texte
- Exemple d'utilisation d'automatisation de texte
- Activités de type OCR
- Activités de type image
- Exemple d'utilisation de l'automatisation d'image et d'OCR
- Automatisation des technologies Citrix
- Automatisation de RDP
- Automatisation VMware Horizon
- Automatisation de Salesforce
- Automatisation SAP
- macOS UI Automation
- Outil ScreenScrapeJavaSupport
- Protocole Webdriver
- Extensions
- À propos des extensions
- Outil SetupExtensions
- UiPathRemoteRuntime.exe n'est pas en cours d'exécution dans la session distante
- UiPath Remote Runtime bloque la fermeture de la session Citrix
- UiPath Remote Runtime provoque une fuite de mémoire
- Les packages UiPath.UIAutomation.Activities ne correspondent pas aux versions d'UiPath Remote Runtime
- L'extension UiPath requise n'est pas installée sur la machine distante
- Paramètres de résolution d’écran
- Stratégies de groupe Chrome
- Impossible de communiquer avec le navigateur
- L’extension Chrome est automatiquement supprimée
- L'extension a peut-être été corrompue
- Vérification de l'installation et de l'activation de l'extension pour Chrome
- Vérifiez si ChromeNativeMessaging.exe est en cours d’exécution
- Vérifier si la variable ComSpec est correctement définie
- Activez l’accès aux URL de fichiers et au mode navigation privée
- Profils de navigateur multiples
- Group Policy conflict
- Problèmes connus spécifiques aux extensions MV3
- Liste des extensions pour Chrome
- Extension Chrome sur Mac
- Stratégies de groupe Edge
- Impossible de communiquer avec le navigateur
- L’extension Edge est automatiquement supprimée
- L'extension a peut-être été corrompue
- Vérification si l'extension pour Microsoft Edge est installée et activée
- Vérifiez si ChromeNativeMessaging.exe est en cours d’exécution
- Vérifier si la variable ComSpec est correctement définie
- Activation de l'accès aux URL de fichiers et au mode navigation privée
- Profils de navigateur multiples
- Group Policy conflict
- Problèmes connus spécifiques aux extensions MV3
- Liste des extensions pour Edge
- Extension pour Safari
- Extension pour VMware Horizon
- Extension pour Amazon WorkSpaces
- Plug-in du gestionnaire de solution SAP
- Complément Excel
- Suite de tests - Studio
- Introduction
- Test d'application
- Travailler avec des cas de test manuels
- Modèle d’exécution
- Simulations
- Automatisation de test d'API
- Résolution des problèmes
- À propos de la résolution des problèmes
- Prise en charge et limitations de Microsoft App-V
- Résolution des problèmes rencontrés avec Internet Explorer x64
- Problèmes rencontrés avec Microsoft Office
- Identification des éléments d'IU dans PDF avec options d'accessibilité
- Réparation de la prise en charge d'Active Accessibility
- La validation des projets volumineux hérités depuis Windows prend plus de temps que prévu
Travailler avec des cas de test manuels
Une fois que vous avez établi une connexion avec une instance Test Manager et un projet Studio, vous pouvez accéder au panneau Explorateur de tests. Tout d’abord, vous pouvez transformer les tests manuels du projet associé en cas de test low-code ou codés. Ensuite, vous pouvez créer des cas de test codés à l’aide de nos fonctionnalités d’IA optimisées par AutopilotTM. Si nécessaire, vous pouvez vérifier dans Test Manager ces tests manuels avant de les automatiser, en double-cliquant sur le cas de test dans le panneau d’explorateur de tests.
Vous pouvez générer des cas de test entièrement automatisés grâce à l’IA générative fournie par AutopilotTM.
Avant de commencer, consultez les bonnes pratiques d’automatisation de test optimisée par l’IA pour générer efficacement vos cas de test codés.
- Connectez Studio à un projet Test Manager.
- Créez des éléments dans le référentiel d’objets reflétant les éléments d’IU des tests manuels.
Remarque : Autopilot utilise des éléments du référentiel d’objets pour automatiser les éléments d’IU dans les étapes de test. Les éléments sont utilisés dans les API sous la forme
IElementDescriptors
.
Vous pouvez générer des cas de test codés à partir de Studio IDE ou du panneau Explorateur de tests (Test Explorer).
Pour générer un cas de test codé à partir de Studio IDE, vous pouvez créer un nouveau cas de test codé et utiliser Autopilot pour générer le code correspondant. Consultez la page Génération du code pour plus d’informations sur les façons de générer le code.
Pour générer le cas de test codé à partir du panneau Explorateur de tests (Test Explorer), procédez comme suit :
- Dans le panneau Explorateur de tests (Test Explorer), sélectionnez Cas de test manuels (Manual Test Cases) pour afficher les cas de test manuels que vous pourrez convertir en automatisations.
- Cliquez avec le bouton droit de la souris sur un cas de test manuel et sélectionnez Générer des cas de test codés avec Autopilot (Generate Coded Test Case with Autopilot).
Cela va créer un cas de test codé utilisant les API UiPath afin de générer le code permettant d’automatiser l’ensemble du test manuel. Les étapes manuelles s’affichent sous forme de commentaires au début du cas de test.
Avant de commencer, consultez les bonnes pratiques d’automatisation de test optimisée par l’IA pour générer efficacement vos cas de test codés.
- Connectez Studio à un projet Test Manager.
- Créez des éléments dans le référentiel d’objets reflétant les éléments d’IU des tests manuels.
Remarque : Autopilot utilise des éléments du référentiel d’objets pour automatiser les éléments d’IU dans les étapes de test.
Vous pouvez générer des cas de test low-code à partir du panneau de conception ou du panneau Explorateur de tests (Test Explorer).
Pour générer des cas de test low-code à partir du panneau Explorateur de tests (Test Explorer), procédez comme suit :
- Dans le panneau Explorateur de tests (Test Explorer), sélectionnez Cas de test manuels (Manual Test Cases) pour afficher les cas de test manuels que vous pourrez convertir en automatisations.
- Cliquez avec le bouton droit de la souris sur un cas de test manuel et sélectionnez Générer des cas de test avec Autopilot (Generate Test Case with Autopilot).
Le résultat sera un cas de test low-code qui utilisera des activités pour générer l’automatisation pour l’ensemble du test manuel.
Pour générer des cas de test low-code à partir du panneau de conception, procédez comme suit :
- Ouvrez votre cas de test low-code vide et sélectionnez Générer avec Autopilot (Generate with Autopilot) dans le panneau de conception.
Un champ de texte Saisir l’annotation (Type annotation) apparaît, qui permet de saisir vos instructions.
- Saisissez les étapes de test nécessaires, puis sélectionnez Générer (Generate) pour déclencher la génération de votre cas de test.
Si vous le souhaitez, vous pouvez enregistrer les instructions et y revenir ultérieurement. Sélectionnez Enregistrer (Save) si vous souhaitez enregistrer les instructions.
Remarque : vous pouvez utiliser ces étapes pour créer des activités dans les blocs Faire (Do) ou dans les corps d’autres activités.Image 1. Saisie des instructions d’Autopilot dans le champ de texte Saisir l’annotation (Type annotation)
Pour générer une seule activité, procédez comme suit :
- Sélectionnez Ajouter une activité (Add Activity) ou utilisez le raccourci
Ctrl + Shift + T
pour ouvrir la barre de recherche de Studio. - Dans la barre de recherche de Studio, saisissez vos instructions.
- Sélectionnez Générer avec Autopilot (Generate with Autopilot) à la fin de la liste de la barre de recherche.
Cette commande vous permet d’utiliser le langage naturel pour générer des étapes d’automatisation, y compris des étapes de test, en fonction de votre entrée.
Vous pouvez créer un cas de test codé à partir d’un test manuel, ce qui permet à Studio de générer un cas de test codé nommé d’après le test manuel.
Prérequis :
- Connectez-vous à Test Manager :
- Dans l'en-tête de Studio, cliquez sur Test Manager.
- Cliquez sur Paramètres de Test Manager.
- Saisissez l'URL de base de votre instance Test Manager et cliquez sur Connecter (Connect).
- Dans Projet par défaut, sélectionnez le projet sur lequel vous souhaitez travailler. Ce projet doit inclure les tests manuels avec lesquels vous souhaitez travailler.
- Ouvrez le panneau Explorateur de tests.
- Dans la liste des cas de test de votre projet par défaut, cliquez droit sur un cas de test manuel.
- Cliquez sur Créer un cas de test codé (Create Coded Test Case).
Résultat : un nouveau cas de test codé est automatiquement créé avec le même nom que le test manuel. Ce cas de test codé affiche les étapes manuelles sous forme de commentaires.
Vous pouvez générer un cas de test low-code à partir d’un test manuel en affichant les étapes manuelles sous forme d’activités Commentaire (Comment).
- Connectez Studio à un projet Test Manager.
- Dans le panneau Explorateur de tests (Test Explorer), sélectionnez Cas de test manuels (Manual Test Cases) pour afficher les cas de test manuels que vous pouvez convertir en cas de test low-code.
- Cliquez avec le bouton droit de la souris sur un cas de test manuel et sélectionnez Créer un cas de test (Create Test Case).
Cela va créer un cas de test low-code plaçant les étapes manuelles en tant qu’activités Commentaire (Comment) dans le fichier XAML.