- Erste Schritte
- Best Practices
- Organisationsmodellierung im Orchestrator
- Verwalten großer Bereitstellungen
- Beste Praktiken für die Automatisierung (Automation Best Practices)
- Optimieren von Unattended-Infrastruktur mithilfe von Maschinenvorlagen
- Organisieren von Ressourcen mit Tags
- Schreibgeschütztes Orchestrator-Replikat
- Exportieren von Rastern im Hintergrund
- Mandant
- Über den Kontext „Mandant“
- Suche nach Ressourcen in einem Mandanten
- Verwaltung von Robotern
- Verbindung von Robotern mit Orchestrator
- Speicherung von Roboterzugangsdaten in CyberArk
- Speichern der Kennwörter von Unattended-Robotern im Azure Key Vault (schreibgeschützt)
- Speichern der Anmeldeinformationen von Unattended-Robotern im HashiCorp Vault (schreibgeschützt)
- Speichern der Anmeldeinformationen von Unattended-Robotern im AWS Secrets Manager (schreibgeschützt)
- Löschen von getrennten und nicht reagierenden Unattended-Sitzungen
- Roboter-Authentifizierung
- Roboter-Authentifizierung mit Client-Anmeldeinformationen
- SmartCard-Authentifizierung
- Konfigurieren von Automatisierungsfunktionen
- Audit
- Einstellungen – Mandantenebene
- Ressourcenkatalogdienst
- Ordnerkontext
- Automatisierungen
- Prozesse
- Jobs
- Auslöser
- Protokolle
- Überwachung
- Warteschlangen
- Assets
- Speicher-Buckets
- Test Suite - Orchestrator
- Testautomatisierung
- Verwaltung von Testdatenwarteschlangen im Orchestrator
- Verwalten von Testdatenwarteschlangen in Studio
- Feldbeschreibungen für die Testdaten-Warteschlangenseite
- Testdaten-Warteschlangen-Aktivitäten
- Testen der Datenaufbewahrungsrichtlinie
- Sonstige Konfigurationen
- Integrationen
- Hostverwaltung
- About the host level
- Verwalten von Systemadministratoren
- Verwalten von Mandanten
- Konfigurieren von System-E-Mail-Benachrichtigungen
- Prüfungsprotokolle für das Hostportal
- Wartungsmodus
- Organisationsadministration
- Fehlersuche und ‑behebung
Feldbeschreibungen für die Testdaten-Warteschlangenseite
Feld |
Beschreibung |
---|---|
Suche |
Suchen Sie nach Testdatenwarteschlangen, die Ihrer Eingabe entsprechen, entsprechend dem Namen und der Beschreibung. |
Hinzufügen |
Öffnen Sie das Fenster Testdatenwarteschlange hinzufügen, um neue Testdatenwarteschlangen zu erstellen. |
Name |
Der Name der Testdatenwarteschlange. |
Anzahl der Elemente |
Die Anzahl der Elemente, die in einer Testdatenwarteschlange enthalten sind. |
Anzahl der verbrauchten Elemente |
Die Anzahl der verwendeten Elemente. Elemente, die als verbraucht gekennzeichnet sind, werden von zukünftigen Testdaten-Warteschlangenausführungen ausgeschlossen. |
Erstellte (Created) |
Der Zeitpunkt, zu dem die Testdatenwarteschlange erstellt wurde. |
Zuletzt geändert |
Der Zeitpunkt, zu dem die Testdatenwarteschlange zuletzt bearbeitet wurde. |
Weitere Aktionen |
Öffnet ein Menü mit den folgenden Optionen:
|
Feld |
Beschreibung |
---|---|
Name |
Ein benutzerdefinierter Name für die Testdatenwarteschlange, damit Sie diese leichter identifizieren können. |
Beschreibung |
Eine benutzerdefinierte Beschreibung für die Testdatenwarteschlange. Erwägen Sie das Hinzufügen einer Beschreibung, um die Verwendung der einzelnen Testdatenwarteschlangen leicht zu identifizieren. |
JSON-Schema des Inhalts |
Ein Formular, das ihr hochgeladenes JSON-Schema auflistet. Es enthält eine Referenz zum Erstellen eines eigenen JSON-Schemas. |
Blättern |
Eine Schaltfläche, die ein Suchfenster öffnet, um Ihre JSON-Datei zu suchen und hochzuladen. Sie können nur JSON-Dateitypen öffnen. |
Abbrechen |
Schließen Sie das Fenster, ohne eine Testdatenwarteschlange hinzuzufügen, und kehren Sie zum vorherigen Fenster zurück. |
Hinzufügen |
Speichern Sie Ihre Konfiguration und erstellen Sie die Testdatenwarteschlange. |
Feld |
Beschreibung |
---|---|
ID |
Die ID des Datensatzes als Teil des JSON-Schemas. |
USERID |
Die Benutzer-ID des Datensatzes als Teil des JSON-Schemas. |
Is-Consumed |
Die verwendeten Elemente werden als Verbraucht gekennzeichnet. Die verbrauchten Elemente werden von zukünftigen Ausführungen von Testdatenwarteschlangen ausgeschlossen. |