- Erste Schritte
- Projektmanagement
- Dokumente
- Arbeiten mit der Analyse der Änderungsauswirkungen
- Assigning test cases to requirements
- Linking test cases in Studio to Test Manager
- Delete test cases
- Dokumentieren von Testfällen mit Task Capture
- Erstellen von Testfällen
- Importieren manueller Testfälle
- Klonen von Testfällen
- Exportieren von Testfällen
- Testfälle automatisieren
- Manuelle Testfälle
- Parameter
- Anwenden von Filtern und Ansichten
- Importieren von Orchestrator-Testsätzen
- Creating test sets
- Assigning test cases to a test set
- Aktivieren der Aktivitätsabdeckung
- Konfigurieren von Testsätzen für bestimmte Ausführungsordner und Roboter
- Überschreiben von Parametern
- Klonen von Testsätzen
- Exportieren von Testsätzen
- Anwenden von Filtern und Ansichten
- Ausführen von manuellen Tests
- Ausführen automatisierter Tests
- Ausführen von Testfällen ohne Testsatz
- Ausführen gemischter Tests
- Erstellen von ausstehenden Ausführungen
- Erzwingen einer Ausführungsreihenfolge
- Erneutes Ausführen von Testausführungen
- Planen von Ausführungen
- Fehlerbehebung bei automatisierten Ausführungen
- Suche mit Autopilot
- Projektvorgänge und Dienstprogramme
- Test Manager-Einstellungen
- ALM Tool-Integration
- API-Integration
- Fehlersuche und ‑behebung

Test Manager-Benutzerhandbuch
Generieren Sie synthetische Testdaten
linkAuf dieser Seite werden Richtlinien für die effektive Nutzung von AutopilotTM zum Generieren synthetischer Testdaten in Studio Desktop aufgeführt.
Die Verwaltung von Testdaten kann bis zu 50 % Ihres Testaufwands in Anspruch nehmen. Mit dem AutopilotTM können Sie diese Zeit sparen, indem synthetische Testdaten für Ihre Testfälle automatisch generiert werden.
1. Erstellen Sie Argumente für Ihre Datenfelder
linkBeim Generieren Ihrer synthetischen Testdaten berücksichtigt Autopilot die vorhandenen Argumente innerhalb Ihres Workflows sowie die in der Eingabeaufforderung angegebenen zusätzlichen Anweisungen. Anhand dieser Informationen versucht er, Testdaten zu generieren, die zu einer hohen Abdeckung Ihres Testfalls führen.
Um einen robusten Testdatensatz zu erzeugen, empfehlen wir, wo immer möglich, Argumente zu verwenden, anstatt sich nur auf lokale Variablen oder bestimmte Zeichenfolgen zu verlassen. Durch die Verwendung von Argumenten ermöglichen Sie Autopilot, Testdaten zu generieren, die besser auf die dynamischen Anforderungen Ihres Workflows ausgerichtet sind.
2. Geben Sie Anweisungen zu Ihrer bevorzugten Methode der Datenkombination
linkStandardmäßig generiert Autopilot etwa zehn Datensätze, um eine hohe Code- oder Aktivitätsabdeckung innerhalb Ihres Testfalls zu erreichen. Wenn Ihre Teststrategie jedoch einen bestimmten Algorithmus erfordert, z. B. „paarweise“ oder „alle Kombinationen“, fügen Sie diese Anweisung in Ihre Eingabeaufforderung ein.
Betrachten Sie beispielsweise die folgende Beispielaufforderung: „Generieren Sie Testdaten für jedes Argument und kombinieren Sie die Datenfelder paarweise.“
3. Verwenden Sie die Eingabeaufforderung, um Ihren Datensatz anzupassen.
linkSie können Autopilot auch anweisen, verschiedene andere Aufgaben auszuführen, z. B. eine bestimmte Anzahl von Datensätzen zu generieren oder zusätzliche Datenfelder aufzunehmen.
Betrachten Sie die folgenden Beispielaufforderungen:
- „Generieren Sie mindestens 25 Datensätze.“
- „Fügen Sie das Feld ‚Land‘ in das Dataset ein und weisen Sie jedem Datensatz einen eindeutigen Länderwert zu.“