- Automation Cloud et Test Cloud
- Automation Cloud pour le secteur public et Test Cloud pour le secteur public
- Automation Cloud dédié et Test Cloud dédié
- Intégrations
Notes de publication Test Manager
21 février 2025
Nouveautés
Planification des exécutions de test
Planifiez vos exécutions de tests automatisées en toute simplicité grâce à des planifications dédiées. Créez et personnalisez des planifications uniques, récurrentes ou avancées adaptées à vos besoins de test. Les planifications des exécutions de tests automatisées sont désormais disponibles dans la section Exécution de votre projet. Pour de plus amples informations sur la gestion des planifications, consultez la section Planifier des exécutions de tests.
12 février 2025
Nouveautés
Rapports avec Insights
Test Manager peut désormais s'intégrer à Insights afin de générer des tableaux de bord de rapports pour vos projets de test. Cette intégration vous permet de générer des tableaux de bord de rapports inter-projets entièrement personnalisables dans Insights à l'aide des données de votre journal de cas de test. Insights propose le tableau de bord prédéfini Rapport d’exécution de Test Manager dédié aux projets de test. Ce tableau de bord vous aide à analyser d’importantes mesures d’exécution telles que les résultats de tests quotidiens ou hebdomadaires accumulés, les taux d’automatisation pour les tests d’exécution et les détails des utilisateurs ou des robots pour chaque exécution de test.
Pour de plus amples informations sur l'activation de l'intégration, consultez Paramètres au niveau du locataire et pour de plus amples informations sur la création de rapports avec Insights, consultez la section Rapports avec Insights.
Sélectionner un compte Robot pour exécuter des ensembles de tests
Pour améliorer votre expérience, nous avons étendu les fonctionnalités de configuration de l’exécution d’un ensemble de tests. Désormais, en plus de sélectionner des cas de test à partir d’un dossier Orchestrator spécifique et de choisir une version de package particulière, vous pouvez également désigner un compte Robot spécifique pour exécuter l’ensemble de test. Pour de plus amples informations sur la configuration de l'exécution d'ensembles de tests, consultez Configurer des ensembles de tests pour des dossiers et des robots d'exécution spécifiques.
Utiliser l'ancrage dans le contexte pour générer des cas de test
Augmentez la vitesse et l’efficacité d’Autopilot lors de la génération des cas de test, en utilisant l’ancrage dans le contexte pour générer des tests pour les exigences et les transactions SAP. Le service d’ancrage dans le contexte qui améliore la précision des cas de test que vous générez est la génération augmentée de récupération (RAG). L’avantage de l’utilisation de l’ancrage dans le contexte et de la RAG lors de la génération de tests est de fournir à Autopilot le contexte de votre organisation et de vos applications, afin qu’il puisse générer des tests plus précis en moins de temps. Si vous utilisez déjà Autopilot, vous connaissez également AI Trust Layer, dont l’ancrage dans le contexte est un sous-composant. Pour commencer à tirer parti de l'ancrage dans le contexte et de la RAG, consultez les sections À propos de l'ancrage dans le contexte et des meilleures pratiques. En outre, pour plus d’informations sur le choix de l’ancrage dans le contexte lors de la génération de tests, consultez les sections Générer des cas de test pour une transaction spécifique, Générer des tests pour les transactions impactées et Générer des tests pour les exigences.
Prise en compte des tests existants lors de la génération de tests
Pour rationaliser les tests et éviter les duplications, Autopilot prend désormais en compte les tests existants lors de la génération de nouveaux. Cela signifie que lorsque vous générez des tests à partir d’une exigence, Autopilot sait éviter de dupliquer les tests manuels et automatisés existants liés à l’exigence spécifique. Si vous souhaitez qu’Autopilot ignore les cas de test déjà liés, à l’étape Fournir des directives supplémentaires , vous pouvez explicitement lui demander de ne pas prendre en compte les tests liés à l’exigence. Pour de plus amples informations, consultez Générer des tests pour les exigences.
Résolution de bogues
Les recommandations du rapport sur les résultats de test n’affichaient pas les cas de test spécifiques auxquels elles étaient associées.