- Premiers pas avec Test Suite
- Studio
- Suite de tests - Studio
- Vue d'ensemble (Overview)
- Activités et API de test
- Orchestrator
- Testing Robots
- Test Manager
- Attribuer des licences Test Manager
- Guide de démarrage rapide
- Prérequis
- Assigning test cases to requirements
- Linking test cases in Studio to Test Manager
- Unlink automation
- Delete test cases
- Créer des scénarios de test
- Génération de tests optimisée par l’IA
- Clonage des cas de test
- Exporter des cas de test
- Cas de test automatisés
- Cas de test manuels
- Appliquer des filtres et des vues
- Ensembles de tests
- Exécution de tests
- Documents
- Rapports
- Exporter des données
- Opérations en bloc
- Résolution des problèmes
Tests optimisés par l'IA
Cette fonctionnalité fait actuellement partie d'un processus d'audit et ne doit pas être considérée comme faisant partie de l'autorisation FedRAMP tant que la révision n'est pas finalisée. Consultez ici la liste complète des fonctionnalités en cours de révision.
UiPath® Test SuiteTM propose des fonctionnalités de test en continu optimisées par l’IA via AutopilotTM. Autopilot for Testers comprend un ensemble de fonctionnalités d’IA conçues pour améliorer la productivité des testeurs tout au long du cycle de vie des tests.
Ce guide vous décrit comment utiliser les fonctionnalités d’IA suivantes :
- Évaluation optimisée par l’IA : AutopilotTM vous aide à évaluer les prérequis relatifs aux aspects qualitatifs tels que la clarté, l’intégralité et la cohérence dans Test Manager.
- Génération optimisée par l’IA : AutopilotTM vous aide à générer des cas de test manuels ainsi que des étapes de test à partir des prérequis et de documents d’assistance dans Test Manager.
- Automatisation optimisée par l’IA : AutopilotTM vous aide à générer des automatisations de test codées, ainsi que des données de test synthétiques à partir d’éléments textuels dans Studio Desktop.
- Résultats optimisés par l’IA : AutopilotTM vous aide à mieux identifier les raisons pour lesquelles les cas de test échouent, sans avoir besoin de modèles de rapport prédéfinis dans Test Manager.
Commencez par créer une exigence pour l’application UiBank, telle que Soumettre une demande de prêt. Décrivez le flux de demande et les critères nécessaires au processus de demande de prêt. Sélectionnez ensuite Évaluer la qualité (Evaluate quality) et évaluez les prérequis à l’aide d’AutopilotTM en générant une liste de suggestions que vous pourrez facilement mettre en œuvre.
Fournissez des documents d’assistance à AutopilotTM ainsi que des conseils supplémentaires via une invite que vous allez sélectionner dans votre bibliothèque ou que vous saisissez vous-même.
Après avoir déclenché l’évaluation, développez chaque suggestion pour mettre à jour son statut en fonction de la progression de votre implémentation. Vous pouvez choisir d’ajouter la suggestion à vos exigences, en indiquant son statut comme En cours ou Terminé. Une option permettant de supprimer les suggestions est également disponible.
Générez davantage de suggestions ou régénérez-les avec différents documents support ou des conseils supplémentaires à l’aide des options Plus de suggestions et Régénérer.
Vous pouvez également conserver les suggestions pour référence future en les exportant vers Word.
Consultez les sections Évaluation optimisée par l’IA et Évaluation optimisée par l’IA : bonnes pratiques pour découvrir comment évaluer efficacement vos prérequis à l’aide d’Autopilot.
Utilisez AutopilotTM pour générer une liste de cas de test potentiels.
- Générer des tests à partir de prérequis : vous pouvez générer des cas de test à partir des informations des prérequis, associés à des documents chargés et à des instructions supplémentaires.
Ouvrez une exigence et sélectionnez Générer des tests afin de générer des tests pour cette exigence.
- Générer des tests pour les transactions SAP : vous pouvez générer des cas de test pour les transactions SAP à partir de la carte thermique ainsi que des écarts découverts dans l’analyse de l’impact des modifications, en vous fondant sur des documents chargés ainsi que sur des instructions supplémentaires.
Affinez le processus de génération avec des documents et des instructions que AutopilotTM pourra utiliser afin de générer les cas de test. Après avoir sélectionné Générer des tests, examinez les cas de test générés et créez des tests si vous êtes satisfait, ou bien affinez-les avec plus de détails si vous le souhaitez.
Consultez les sections Génération optimisée par l’IA et Générer des cas de tests pour une transaction spécifique, ainsi que Génération optimisée par l’IA : bonnes pratiques, afin de découvrir comment profiter pleinement de la fonctionnalité de génération de test.
Prérequis: installez Studio Desktop 2024.10.1 ou version ultérieure pour utiliser l’automatisation basée sur l’IA.
Connectez Studio à l’instance Test Manager dans laquelle vous avez créé vos cas de test. Dans le panneau Explorateur de tests, cliquez droit sur les cas de test manuels liés à partir de Test Manager. Sélectionnez Générer un cas de test codé. Cela va générer un cas codé à partir d’étapes manuelles, auquel vous allez pouvoir lier l’automatisation. Consultez la page Génération de cas de test codé à partir de cas de test manuels pour accéder à davantage d’informations sur la génération de cas de test.
Vous pouvez également choisir de Générer avec Autopilot lorsque vous ajoutez des données de test à vos cas de test. Autopilot va initialement générer des arguments et des variables potentiels, que vous pourrez affiner en fonction de vos besoins. Consultez la page Génération de tests optimisée par l’IA pour découvrir comment générer des données de test synthétiques à l’aide de l’IA.
Consultez la section Automatisation optimisée par l’IA : bonnes pratiques pour découvrir comment créer et gérer efficacement vos automatisations de test dans Studio Desktop.
Obtenez des informations exploitables sur vos résultats de test en générant un rapport avec Autopilot, qui détaillera les raisons pour lesquelles vos cas de test échouent continuellement.
Pour générer le rapport, accédez à Exécution. Sélectionnez Générer des résultats ( Generate Insights), choisissez vos résultats de test, puis sélectionnez Générer les résultats ( Generate Insights). Accédez à votre rapport dans Exécution (Execution) sous l'onglet Insights (Insights).
Consultez les sections Résultats optimisés par l’IA et Résultats optimisés par l’IA : bonnes pratiques pour découvrir comment identifier les problèmes de vos exécutions de test.
Consultez la page Licences Autopilot pour obtenir des informations sur la façon dont les activités Autopilot sont mesurées et attribuées.
La politique de gouvernance de AI Trust Layer vous permet de gérer l'utilisation des fonctionnalités optimisées par l'IA au sein de votre organisation. Bien que tous les membres disposent d'un accès par défaut à ces fonctionnalités, vous pouvez utiliser cette stratégie afin de restreindre les accès, le cas échéant. La politique de gouvernance de AI Trust Layer vous permet de limiter l'accès d'un utilisateur à certaines fonctionnalités spécifiques optimisées par l'IA, ou bien à l'ensemble de ces fonctionnalités, que ce soit au niveau de l'utilisateur, du groupe ou du locataire. Par ailleurs, elle vous permet de choisir les produits d’IA auxquels les utilisateurs peuvent accéder. Vous pouvez créer, modifier et mettre en œuvre cette politique de gouvernance dans AutomationOps.
Si vous souhaitez déployer une stratégie de gouvernance AI Trust Layer et continuer à utiliser les capacités de test optimisées par l'IA, veillez à indiquer Oui dans le champ Activer/Désactiver les fonctionnalités de l'option Activer les fonctionnalités Test Manager.
Consultez les ressources suivantes pour découvrir comment créer, configurer et déployer une politique de gouvernance pour votre organisation.