- Premiers pas avec Test Suite
- Studio
- Suite de tests - Studio
- Vue d'ensemble (Overview)
- Activités et API de test
- Orchestrator
- Testing Robots
- Test Manager
- Analyse de l’impact des modifications
- Prérequis
- Assigning test cases to requirements
- Linking test cases in Studio to Test Manager
- Delete test cases
- Documenter les cas de test avec Task Capture
- Créer des scénarios de test
- Importer des cas de test manuels
- Générer des tests pour les prérequis
- Clonage des cas de test
- Exporter des cas de test
- Cas de test automatisés
- Cas de test manuels
- Appliquer des filtres et des vues
- Ensembles de tests
- Exécution de tests
- Documents
- Rapports
- Exporter des données
- Opérations en bloc
- Rechercher avec Autopilot
- Résolution des problèmes
Guide de l'utilisateur de Test Suite
Générer des tests pour les prérequis
Cette page répertorie les principes de base et les bonnes pratiques pour générer efficacement des cas de test en utilisant AutopilotTM dans Test Manager.
Cette section décrit les principales caractéristiques d’une exigence dans Test Manager.
Les exigences impliquent souvent des capacités spécifiques liées à des aspects qualitatifs tels que les aspects fonctionnels (ce que le logiciel doit faire), les performances (la vitesse de fonctionnement), l’utilisabilité (la facilité d’utilisation), la protection (la sécurité de l’exécution), etc.
Les modèles d’IA tels que AutopilotTM se fondent sur la spécificité pour interpréter correctement les exigences. Des descriptions trop générales ou approximatives peuvent conduire à des cas de test peu pertinents ou incorrects. Pour atténuer ce problème, commencez par un énoncé concis mais précis, axé sur l’utilisateur, qui décrit l’objectif de l’exigence. Concentrez-vous sur l’avantage final pour l’utilisateur.
Exemple : pour une demande d’assurance vie, vous pouvez commencer par :
« En tant qu’assuré potentiel, je souhaite calculer mes primes d’assurance afin de calculer mes dépenses potentielles ».
Cela permet de préciser l’avantage attendu par l’utilisateur et d’identifier un objectif précis pour tester cette exigence.
L’efficacité de AutopilotTM pour générer des étapes de test précises et détaillées dépend en grande partie de sa compréhension du parcours de l’utilisateur et de la séquence d’application. Il est ainsi crucial de détailler les interactions spécifiques que l’utilisateur avec l’application, ainsi que les réponses ultérieures de l’application (du début de l’application jusqu’à l’action de test finale). Cela permettra à AutopilotTM de comprendre l’ordre chronologique des opérations, conduisant à des étapes de test plus précises et plus détaillées.
Exemple : pour la fonctionnalité de calcul des primes d’assurance, décrivez le workflow comme suit :
« L’utilisateur commence par l’écran principal, puis accède à l’écran ’Obtenir un devis’ via le menu principal. Il saisit ensuite ses données personnelles, notamment son âge et son sexe, dans les champs correspondants du formulaire. Il sélectionne une couverture d’assurance et une durée de contrat parmi les options disponibles. Lorsque l’utilisateur clique sur ’Calculer la prime’, l’application calcule et affiche la prime sur l’écran suivant. »
Des critères d’acceptation clairs et mesurables sont essentiels pour définir les attentes de l’application et guider AutopilotTM dans sa vérification de résultats précis. Ils doivent englober des scénarios positifs et négatifs, y compris des situations où les utilisateurs peuvent ne pas suivre l’utilisation prescrite, où ils peuvent saisir des données non valides, ou encore lorsque l’application est en état d’erreur. Les critères doivent également prendre en compte des facteurs non fonctionnels tels que la sécurité, la convivialité et l’évolutivité. Si les critères d’acceptation ne sont pas bien définis, AutopilotTM peut générer des cas de test inadéquats.
Exemple : pour la fonction de calcul de la prime dans notre demande d’assurance vie, spécifiez des critères d’acceptation concrets, comme dans l’un des exemples suivants :
- « Le système doit calculer la prime en tenant compte de l’âge de l’utilisateur. Pour chaque année après 25 ans, un incrément de 5 $ doit être ajouté à la prime de base de 100 $ »
- « Le système doit augmenter la prime de 50 $ pour les fumeurs en raison des risques de santé plus élevés qui leur sont associés »
- « Si l’utilisateur saisit un âge inférieur à 18 ans, le système doit afficher un message d’erreur »
- « Le processus de calcul de la prime ne doit pas prendre plus de 3 secondes lorsque le nombre d’utilisateurs simultanés est inférieur ou égal à 1000 »
Cette section fournit des instructions afin que vous puissiez autoriser AutopilotTM à se concentrer sur les aspects qui doivent être pris en compte lors de la génération des cas de test.
Guidez AutopilotTM en fournissant des instructions supplémentaires dans l’écran Fournir des conseils supplémentaires . Utilisez les invites prêtes à l'emploi de la bibliothèque d'invites, qui aident à générer des cas de test de bout en bout à partir de diagrammes de flux, à générer des tests pour des scénarios de bout en bout valides, à générer des tests pour trouver des problèmes difficiles à identifier, à générer des pour terminer des tests à partir de diagrammes de flux, et générer des tests pour trouver des problèmes difficiles à identifier. Vous pouvez également ajouter vos propres invites personnalisées à la bibliothèque d’invites, en particulier celles que vous utilisez fréquemment pour la génération de cas de test manuels.
Pour générer un nombre spécifique de cas de test, indiquez à AutopilotTM des commandes telles que « Générer les 20 premiers cas de test pour cette exigence ». Par défaut, AutopilotTM génère des résultats attendus uniquement pour la dernière étape de test de chaque cas de test. Pour générer des résultats attendus pour chaque étape de test, utilisez « Générer les résultats attendus pour chaque étape de test ». En outre, AutopilotTM peut générer des préconditions et/ou des postconditions pour les cas de test manuels sur demande. Indiquez ce qu’il faut inclure ou exclure, car les préconditions et les postconditions ne sont pas générées par défaut.
Cette section répertorie les documents d’assistance que vous pouvez fournir à AutopilotTM. Ces documents constituent des informations supplémentaires qui complètent la description d’une exigence dans Test Manager. Ils sont destinés à améliorer la compréhension d’une exigence par Autopilot et lui permet de générer des cas de test plus précis et plus utiles concernant une exigence.
Pour illustrer les opérations étape par étape dans l’application, vous pouvez inclure des diagrammes de cas d’utilisation, des organigrammes ou des diagrammes de processus sous forme d’images ou de fichiers BPMN. Les diagrammes de processus permettent à Autopilot de comprendre le flux séquentiel et logique des activités utilisateur les plus importantes pour l’exigence concernée. Grâce à ces représentations de processus, Autopilot peut générer des cas de test plus précis, qui s’aligneront sur les workflows réels de l’application.
Pour faciliter la compréhension de Autopilot, vous pouvez ajouter des diagrammes visuels représentatifs de vos exigences en matière d’interface utilisateur/d’expérience utilisateur. Ceci est particulièrement utile lorsque vous testez de nouvelles fonctionnalités front-end et vous permettra de clarifier la mise en page, les interactions utilisateur et les éléments à tester.
Dans les secteurs soumis à d’importantes réglementations tels que la santé, les finances ou les communications, pensez à inclure des documents relatifs à la conformité et aux réglementations. Ces directives s’appliquent souvent de manière universelle à différentes exigences dans Test Manager (user stories, cas d’utilisation, etc.). En chargeant ces documents, vous permettez à Autopilot d’intégrer des normes de conformité aux cas de test qu’il va générer pour chaque exigence, et non uniquement à ceux directement liés à des critères de conformité spécifiques. Cette approche permet de veiller à ce que tous les cas de test respectent les réglementations du secteur et que la conformité sera systématiquement respectée pour l’ensemble des exigences testées par Autopilot.
Vous pouvez également inclure une transcription de discussions relatives à des exigences spécifiques. Ces discussions peuvent provenir d’une réunion ou d’une session virtuelle via une plate-forme en ligne et impliquer des développeurs, des propriétaires de produits et des testeurs. Les transcriptions fourniront à Autopilot des informations sur la façon dont les membres de l’équipe interprètent ou prévoient de mettre en œuvre une exigence, fournissant ainsi des éléments de contexte qui peuvent considérablement améliorer la précision des cas de test générés.
Cette section décrit les limitations actuelles de AutopilotTM.
Vous pouvez uniquement charger des fichiers avec les extensions suivantes, dans lesquels Autopilot traitera uniquement le contenu textuel :
- DOCX
- XLSX
- TXT
- CSV
- PNG
- JPG
- BPMN
La capacité maximale du jeton d’entrée sur Autopilot est de 128 000, ce qui équivaut à environ 96 000 mots ou 512 000 caractères.
Veillez à ce que la description de vos exigences et les documents d’assistance ne dépassent pas les limites suivantes.
Pour vérifier le nombre approximatif de jetons de vos documents, ouvrez le document sous forme de fichier TXT et copiez le contenu dans l’outil Open AI de générateur de jetons. Le nombre de jetons indiqué est approximatif. Il est possible que le nombre réel soit plus élevé.
- Description des exigences
- 1. L’objectif de l’exigence
- 2. Logique d’application
- 3. Critères d’acceptation
- Instructions supplémentaires
- Documents d’assistance
- Diagrammes de processus
- Maquettes et wireframes
- Documents de conformité
- Transcriptions de discussions
- Limites fonctionnelles
- Types de fichiers pris en charge
- Capacité de jetons d’entrée
- Générateur de cas de test