- Erste Schritte
- Projektmanagement
- Dokumente
- Arbeiten mit der Analyse der Änderungsauswirkungen
- Erstellen von Testfällen
- Assigning test cases to requirements
- Klonen von Testfällen
- Exportieren von Testfällen
- Linking test cases in Studio to Test Manager
- Delete test cases
- Manuelle Testfälle
- Importieren manueller Testfälle
- Dokumentieren von Testfällen mit Task Capture
- Parameter
- Anwenden von Filtern und Ansichten
- Importieren von Orchestrator-Testsätzen
- Creating test sets
- Hinzufügen von Testfällen zu einem Testsatz
- Zuweisen von Standardbenutzern in der Testsatzausführung
- Aktivieren der Aktivitätsabdeckung
- Aktivieren von Healing Agent
- Konfigurieren von Testsätzen für bestimmte Ausführungsordner und Roboter
- Überschreiben von Parametern
- Klonen von Testsätzen
- Exportieren von Testsätzen
- Anwenden von Filtern und Ansichten
- Ausführen von manuellen Tests
- Ausführen automatisierter Tests
- Ausführen von Testfällen ohne Testsatz
- Ausführen gemischter Tests
- Erstellen von ausstehenden Ausführungen
- Erzwingen einer Ausführungsreihenfolge
- Erneutes Ausführen von Testausführungen
- Planen von Ausführungen
- Fehlerbehebung bei automatisierten Ausführungen
- FAQ – Funktion – Test Manager vs Orchestrator
- Zugänglichkeitstests für Test Cloud
- Suche mit Autopilot
- Projektvorgänge und Dienstprogramme
- Test Manager-Einstellungen
- ALM Tool-Integration
- API-Integration
- Fehlersuche und ‑behebung

Test Manager-Benutzerhandbuch
Verwenden Sie die Autopilot-Suche direkt im Chat, indem Sie vollständige, teilweise oder unscharfe Begriffe des Suchens eingeben. Der Agent ruft alle übereinstimmenden Objekte ab. Wenn ein Tippfehler gemacht wird, korrigiert der Chat häufige Fehler automatisch.
Nachdem Ergebnisse angezeigt wurden, können Sie diese erweitern oder die gefilterte Ansicht in der Artefakttabelle öffnen, ohne den Chat zu verlassen.
Beispiele für Abfragen:
- Finden Sie alle Anforderungen, bei denen der benutzerdefinierte Feld Sprint auf 123 festgelegt ist.
- Finden Sie alle Testfälle, die in den letzten fünf Tagen fehlgeschlagen sind.
Verwenden Sie die Autopilot- Diagrammfunktion, um eine visuelle Darstellung Ihrer Daten in Form von Balkendiagrammen, Liniendiagrammen und Kreisdiagrammen zu generieren.
Beispiele für Abfragen:
- Verteilung von Anhängen nach Dateitypen anzeigen.
- Wie viele Anforderungen sind vollständig, teilweise oder nicht getestet?
- Zeigen Sie fehlgeschlagene Testfälle gruppiert nach Anforderung an.
- Zeigt fehlgeschlagene Tests ohne verknüpfte Fehler an, die nach Anforderungen gruppiert sind.
- Zeigt die Testfallverteilung nach Beschriftung an.
- Verteilung von Anforderungen mit benutzerdefiniertem Feld „Sprint“ anzeigen.
- Welche Testsätze dauern am längsten?
- Zeigen Sie die Trends von Testfällen an, die kürzlich nicht ausgeführt wurden.
Verwenden Sie die Funktion Qualität bewerten , um die Klarheit, Vollständigkeit und Testbarkeit von Anforderungen zu bewerten und so eine höhere Qualität der Eingaben sicherzustellen, bevor das Testdesign beginnt.
Um eine Anforderungsauswertung über Autopilot Chat aufzurufen, verweisen Sie anhand des Namens oder der ID auf die Anforderung. Autopilot Chat versteht den Kontext, öffnet die Schnittstelle zur Anforderungsauswertung und zeigt eine detaillierte Analyse mit Verbesserungsvorschlägen an.
Nach Abschluss der Anforderungsbewertung überprüfen Sie das Ergebnis, überprüfen die identifizierten Probleme und optimieren die Anforderung, ohne den Chat zu verlassen.
Beispiele für Abfragen:
- Bewerten Sie die Qualität der Anforderung „Kredit einreichen“.
- Bewerten Sie die Qualität von UIB:24.
- Geben Sie eine Abfrage ein, die angibt, welche Anforderung ausgewertet werden muss.
Abbildung 3. Autopilot Chat – Anforderungsabfrage auswerten
- Wählen Sie Felder konfigurieren und bearbeiten: Fügen Sie beliebige Dokumente hinzu oder wählen Sie aus, welche Dokumente in die Analyse aufgenommen werden sollen, fügen Sie eine Aufforderung hinzu oder bearbeiten Sie sie, wählen Sie ein KI-Modell aus und wählen Sie dann entweder Akzeptieren oder Ablehnen .
Abbildung 4. Autopilot Chat – Konfiguration der Anforderung evaluieren
- Wenn Sie Ablehnen auswählen, wird der Vorgang nicht ausgeführt. Wenn Sie Akzeptieren auswählen, arbeitet Autopilot im Hintergrund, um die Ergebnisse bereitzustellen.
Abbildung 5. Autopilot Chat – Ergebnisüberprüfung der Anforderungen
- (Optional) Geben Sie eine Abfrage nach der unmittelbarsten Aktion ein, die als nächstes ausgeführt werden muss.
Verwenden Sie die Funktion Testfälle generieren , um automatisch hochwertige, strukturierte Testfälle basierend auf Anforderungsdetails, Benutzerdokumenten, RAG oder Benutzeraufforderungen zu erstellen.
Um Testfälle generieren aus Autopilot Chat aufzurufen, verweisen Sie anhand des Namens oder der ID auf eine Anforderung. Autopilot Chat interpretiert Ihre Absicht, identifiziert die relevante Anforderung und startet das Tool Testfälle generieren, in dem Sie mehr Kontext bereitstellen können (Beschriftungen, benutzerdefinierte Felder).
Nachdem die Tests generiert wurden, überprüfen Sie die generierten Tests.
Beispiele für Abfragen:
- Generieren Sie Testfälle für die Anforderung „Submit Loan“.
- Generieren Sie Testfälle für UIB:24.
- Geben Sie eine Abfrage ein, die Tests für eine bestimmte Anforderung generiert.
Abbildung 6. Autopilot Chat – Abfrage der Testgenerierung
- Geben Sie eine Abfrage ein, die angibt, welche Anforderung ausgewertet werden muss.
- Wählen Sie Felder konfigurieren und bearbeiten: Fügen Sie beliebige Dokumente hinzu oder wählen Sie aus, welche Dokumente in die Analyse aufgenommen werden sollen, fügen Sie eine Aufforderung hinzu oder bearbeiten Sie sie, wählen Sie ein KI-Modell aus und wählen Sie dann entweder Akzeptieren oder Ablehnen .
- Wenn Sie Ablehnen auswählen, wird der Vorgang nicht ausgeführt. Wenn Sie Akzeptieren auswählen, überprüfen Sie die Ergebnisse.
Abbildung 7. Autopilot Chat – Überprüfung des Testergebnisses generieren
Stellen Sie Fragen in natürlicher Sprache, um zu erfahren, wie Sie den Test Manager verwenden. Autopilot Chat ruft die Informationen direkt aus der offiziellen Dokumentation ab, einschließlich Quelllinks zur weiteren Lektüre.
Dies beschleunigt das Onboarding neuer Teams und macht das Wechseln zwischen Dokumentation und Produktbildschirmen überflüssig.
Beispiele für Abfragen:
- Wie erstelle ich eine Anforderung?
- Wie führe ich einen Testsatz aus?
Verwenden Sie die Funktion Veraltete Tests suchen , um ein sauberes, aktuelles Test-Repository zu gewährleisten, indem Sie automatisch die veralteten oder redundanten Testfälle identifizieren, die mit Anforderungen verknüpft sind.
Um die Funktion Veraltete Tests suchen in Autopilot Chat aufzurufen, verweisen Sie entweder mit einem Namen oder einer ID auf eine Anforderung. Autopilot Chat interpretiert Ihre Absicht, identifiziert die relevante Anforderung und startet das Tool Veraltete Tests finden, mit dem Sie mehr Kontext bereitstellen können.
Autopilot Chat analysiert die Beziehung zwischen den Anforderungen und den zugehörigen Testfällen, um veraltete Testfälle zu erkennen, die durch Folgendes verursacht werden:
- Aktualisierte oder veraltete Anforderungen
- Redundante Abdeckung der gleichen Funktionalität
- Veraltete Testumgebungen oder Abhängigkeiten
- Falsch ausgerichtete oder nicht unterstützte Testschritte
Durch das Auffinden veralteter Testfälle können sich Tester nur auf relevante, ausführbare Test-Assets konzentrieren, wodurch sowohl die Testgenauigkeit als auch die Wartungseffizienz verbessert werden.
Wenn eine Abfrage außerhalb des Scopes der Dokumentation oder der Autopilot-Suche liegt, wechselt Autopilot Chat automatisch in den Websuchmodus, aber nur im Kontext der Testautomatisierung.
Autopilot Chat durchsucht vertrauenswürdige öffentliche Quellen nach Themen im Zusammenhang mit Testframeworks, Automatisierungsstrategien oder QS-Methoden und fasst dann die relevantesten Erkenntnisse zusammen.
Benutzer erhalten eine kontextbezogene, automatisierungsorientierte Anleitung, während sie innerhalb der Test Manager-Domäne bleiben.
Beispiele für Abfragen:
- Was sind die besten Praktiken für das Schreiben automatisierter Regressionstests?
- Wie sollte ich datengesteuerte Testfälle in der Automatisierung entwerfen?