- Erste Schritte
- Projektmanagement
- Dokumente
- Arbeiten mit der Analyse der Änderungsauswirkungen
- Importieren von Orchestrator-Testsätzen
- Creating test sets
- Hinzufügen von Testfällen zu einem Testsatz
- Aktivieren der Aktivitätsabdeckung
- Konfigurieren von Testsätzen für bestimmte Ausführungsordner und Roboter
- Überschreiben von Parametern
- Klonen von Testsätzen
- Exportieren von Testsätzen
- Anwenden von Filtern und Ansichten
- Suche mit Autopilot
- Projektvorgänge und Dienstprogramme
- Test Manager-Einstellungen
- ALM Tool-Integration
- API-Integration
- Fehlersuche und ‑behebung

Test Manager-Benutzerhandbuch
AutopilotTM unterstützt Sie bei der Auswertung von Anforderungen für Qualitätsaspekte wie Klarheit, Vollständigkeit und Konsistenz.
Um Anforderungen mit AutopilotTM auszuwerten, muss Ihre Test Manager- Rolle über die folgenden Berechtigungen verfügen: Anforderung – Erstellen, Bearbeiten.
- Öffnen Sie ein Projekt und navigieren Sie zu Anforderungen.
- Wählen Sie Weitere Optionen für eine Anforderung und dann Abdeckung optimieren aus.
Hinweis: Alternativ können Sie die Anforderung öffnen und dann Abdeckung optimieren auswählen.
- Wählen Sie im Dialogfeld Abdeckung optimieren die Option Qualität auswerten aus.
Das Fenster Begleitdokumente bereitstellen wird geöffnet und Sie werden aufgefordert, Anhänge oder andere Dokumente, die für die Bewertung der Anforderung erforderlich sind.
- Wählen Sie im Fenster Unterstützende Dokumente bereitstellen zusätzliche Anlagen aus. Diese werden bei der Bewertung der Anforderung verwendet. Sie können auch selbst andere Dateien hochladen.
- Wählen Sie Weiter aus und geben Sie zusätzliche Anweisungen an, die der AutopilotTM beim Bewerten der Anforderung verwenden soll. Wählen Sie eine Eingabeaufforderung aus der Eingabeaufforderungsbibliothek aus oder geben Sie diese Anweisungen in das Fenster Zusätzliche Anleitung bereitstellen ein.
- Wählen Sie optional aus der Dropdownliste Modell das KI-Modell aus, das der Autopilot verwenden soll.
Autopilot verwendet bei der Auswertung der Anforderungen standardmäßig Claude 3.7 Sonnet, was auch das empfohlene Modell ist.
Hinweis: Die in der Dropdown-Liste Modell verfügbaren Modelle hängen von der AI Trust Layer-Richtlinie ab, die auf Ihre Organisation und Ihren Mandanten angewendet wird. Wenn alle unterstützten Modelle aktiviert sind, wird Claude 3.7 Sonnet als empfohlene Option angezeigt. Wenn nur ein Modelltyp aktiviert ist (z. B. Azure OpenAI), wird nur das GPT 4o-Modell angezeigt und automatisch empfohlen.
- Wählen Sie optional aus der Dropdownliste Modell das KI-Modell aus, das der Autopilot verwenden soll.
- Wählen Sie Qualität auswerten aus, um den Prozess zu starten.
Wenn die Bewertung abgeschlossen ist, erhalten Sie eine Benachrichtigung über den Abschluss der Qualitätsprüfung. Je nach Ihren Benachrichtigungseinstellungen können Sie die Benachrichtigung sowohl in der App als auch per E-Mail erhalten.
- Wählen Sie die Benachrichtigung Qualitätsprüfung abgeschlossen aus, um die generierten Vorschläge anzuzeigen.
- Erweitern Sie jeden Vorschlag und aktualisieren Sie seinen Status basierend auf Ihrem Fortschritt: Zu erledigen, In Arbeit oder Fertig.
- Wenn Sie einen Vorschlag implementieren möchten, wählen Sie Zur Anforderung hinzufügen aus.
Dadurch wird der Vorschlagsstatus zu In Arbeit geändert. Sie können sie entweder so belassen oder als fertig markieren.
- Bei Bedarf können Sie den Vorschlag aus der Liste entfernen.
- Um weitere Vorschläge für eine Anforderung zu generieren, wählen Sie Mehr vorschlagen aus.
Hinweis: Alternativ können Sie die Option Erneut generieren verwenden, um Vorschläge mit anderen Dokumenten oder zusätzlichen Anleitungen neu zu erstellen.
- Um die Vorschläge zu speichern, wählen Sie Nach Word exportieren aus.
Sie können nur die folgenden Dateierweiterungen hochladen, von denen Autopilot nur den Textinhalt verarbeitet:
- DOCX
- XLSX
- TXT
- CSV
- PNG
- JPG
- BPMN
Eine umfassende Liste mit Richtlinien und Beispielen, die Ihnen beim Verfassen effektiver Anweisungen helfen, finden Sie unter Best Practices für Qualitätsprüfungsanforderungen.
Mit der Governance-Richtlinie der AI Trust Layer können Sie die Nutzung von KI-gestützten Funktionen innerhalb Ihrer Organisation verwalten.Standardmäßig haben alle Mitglieder Zugriff auf diese Funktionen, Sie können aber diese Richtlinie verwenden, um den Zugriff nach Bedarf einzuschränken.Mit der Governance-Richtlinie der AI Trust Layer können Sie den Zugriff eines Benutzers oder einer Benutzerin auf bestimmte oder alle KI-gestützten Funktionen auf Benutzer-, Gruppen- oder Mandantenebene beschränken.Darüber hinaus können Sie entscheiden, auf welche KI-Produkte Benutzer zugreifen können. Sie können diese Governance-Richtlinie in Automation Ops erstellen, ändern und implementieren.
Wenn Sie eine AI Trust Layer-Governance-Richtlinie bereitstellen und dennoch die KI-gestützten Testfunktionen verwenden möchten, achten Sie darauf, dass Sie beim Funktionsumschalter der Richtlinie Ja für Aktivieren der Test Manager-Funktionen auswählen.
In den folgenden Ressourcen erfahren Sie, wie Sie eine Governance-Richtlinie für Ihre Organisation erstellen, konfigurieren und bereitstellen.