- Erste Schritte
- Projektmanagement
- Dokumente
- Arbeiten mit der Analyse der Änderungsauswirkungen
- Erstellen von Testfällen
- Zuweisen von Testfällen zu Anforderungen
- Klonen von Testfällen
- Exportieren von Testfällen
- Verknüpfen von Testfällen in Studio mit dem Test Manager
- Delete test cases
- Manuelle Testfälle
- Importieren manueller Testfälle
- Dokumentieren von Testfällen mit Task Capture
- Parameter
- Aktivieren der Governance auf Projektebene
- Deaktivieren der Governance auf Projektebene
- Aktivieren der Governance auf Testfallebene
- Deaktivieren der Governance auf Testfallebene
- Verwalten von Genehmigern für strukturierte Testfälle
- Verwalten von gesteuerten Testfällen im Status In Arbeit
- Verwalten von geregelten Testfällen im Status „Wird überprüft“.
- Verwalten von gesteuerten Objekten im Status „Signiert“.
- Verwalten von Kommentaren für gesteuerte Testfälle
- Anwenden von Filtern und Ansichten
- Importieren von Orchestrator-Testsätzen
- Creating test sets
- Hinzufügen von Testfällen zu einem Testsatz
- Zuweisen von Standardbenutzern in der Testsatzausführung
- Aktivieren der Aktivitätsabdeckung
- Aktivieren von Healing Agent
- Konfigurieren von Testsätzen für bestimmte Ausführungsordner und Roboter
- Überschreiben von Parametern
- Klonen von Testsätzen
- Exportieren von Testsätzen
- Anwenden von Filtern und Ansichten
- Ausführen von manuellen Tests
- Ausführen automatisierter Tests
- Ausführen von Testfällen ohne Testsatz
- Ausführen gemischter Tests
- Erstellen von ausstehenden Ausführungen
- Erzwingen einer Ausführungsreihenfolge
- Erneutes Ausführen von Testausführungen
- Planen von Ausführungen
- Fehlerbehebung bei automatisierten Ausführungen
- FAQ – Funktion – Test Manager vs Orchestrator
- Erstellen automatisierter Tests
- Durchführen von Leistungsszenarien
- Bekannte Einschränkungen bei Leistungstests
- Best Practices für Leistungstests
- Fehlerbehebung bei Leistungstests
- Zugänglichkeitstests für Test Cloud
- Suche mit Autopilot
- Projektvorgänge und Dienstprogramme
- Test Manager-Einstellungen
- ALM Tool-Integration
- API-Integration
- Fehlersuche und ‑behebung
Test Manager-Benutzerhandbuch
Cloud- und serverlose Roboter können maximal 60 Minuten pro Test ausgeführt werden . Lokale Roboter können dieses Limit überschreiten.
-
Maximale gleichzeitige Aufträge:
Bis zu 500 Aufträge können gleichzeitig mit serverlosen Robotern ausgeführt werden .
-
Auswirkungen auf virtuelle Benutzer (VUs):
Die Anzahl der erreichbaren virtuellen Benutzer hängt vom Multiplexing ab ( mehrere VUs pro Auftrag).
Beispielsweise kann ein Szenario mit einem Multiplexing-Faktor von 4 auf bis zu 2.000 gleichzeitige virtuelle Benutzer skaliert werden .
Die Multiplexing-Funktionen für serverlose Roboter werden während des Leerlaufs automatisch erkannt und der resultierende Faktor wird in den Anwendungsprotokollen gemeldet.
Im Gegensatz zu lokalen Maschinen, bei denen der Multiplexing-Faktor manuell überschrieben werden kann, wird dies für serverlose Roboter nicht unterstützt.
-
VPN-Einschränkungen:
Bei Verwendung eines VPN hängt die effektive Gleichzeitigkeit von der VPN- oder Gateway-Kapazität ab.
-
Standardlimit: ca. 250 gleichzeitige Aufträge
-
Der tatsächliche Grenzwert kann je nach Gateway-SKU und Infrastrukturkapazität variieren.
-
Wenn eine höhere Gleichzeitigkeit erforderlich ist, sollten sich Kunden an den UiPath-Support oder sein Kontoteam wenden, um VPN-Skalierungsoptionen zu besprechen.
-
-
Ausführungsdauer:
Serverlose Roboter sind auf 60 Minuten pro Ausführungbegrenzt
HTTP WebRequest) und Desktop-Automatisierungen beschränkt. Beispielsweise werden Integration Service oder codierte Automatisierungen noch nicht unterstützt.
Leistungstestausführungen auf lokalen Maschinen unterstützen keine Browserautomatisierung im Chrome Incognito-Modus oder im Edge InPrivate-Modus.
Diese Einschränkung wird durch die Sicherheitsbeschränkungen des Browsers verursacht, gemäß denen Erweiterungen für das private Browsing manuell aktiviert werden müssen. Die UiPath-Browsererweiterung kann zwar installiert werden (z. B. über Gruppenrichtlinien), kann aber nicht automatisch im Inkognito-Modus aktiviert werden, was verhindert, dass die Automatisierung während der Testausführung mit dem Browser interagiert.
Darüber hinaus erstellt Leistungstests für jede Ausführung neue Browserbenutzerverzeichnisse. Das Aktivieren der Erweiterung für den Inkognito-Modus würde eine manuelle Konfiguration für jedes dieser Verzeichnisse erfordern und macht sie für automatisierte Szenarien ungeeignet. Weitere Informationen finden Sie im Abschnitt Alternative zum Aktivieren des Inkognito-Modus der Studio-Dokumentation.
Diese Einschränkung gilt nur für lokale Umgebungen.
In serverlosen Umgebungen wird der Inkognito-Modus unterstützt, da die Browserkonfiguration vollständig von UiPath verwaltet wird.
Problemumgehung: Führen Sie Tests im Standard-Browsermodus aus.
Performance-Tests erstellen ein eigenes dediziertes Browserprofil und Verzeichnis, um sicherzustellen, dass sie das Standardprofil des Benutzers nicht beeinträchtigen. Mit diesem Setup können Tests in einer Sandbox-Umgebung ausgeführt werden, ähnlich wie bei einem Inkognito-Modus. Nach der Ausführung werden alle für das Testen erstellten Browserverzeichnisse bereinigt, sodass keine Restdaten übrig bleiben.
- Infrastrukturlücken:
ACR-VM-Unterstützung und elastische Bereitstellung sind noch nicht verfügbar, sodass eine automatische Skalierung von Ressourcen derzeit nicht möglich ist. - API-Zugriff: Der direkte programmgesteuerte Zugriff auf rohe Leistungstestdaten wird noch nicht unterstützt.
- Historischer Vergleich: Testergebnisse aus verschiedenen historischen Ausführungen können noch nicht verglichen werden.
- Autopilot- und Agent-Unterstützung: Autopilot- und Agent-Unterstützung sind in der aktuellen Version nicht verfügbar.
- Im Detail angezeigte Aufzeichnungen: Die Aufzeichnung kann nur im Orchestrator aktiviert und angezeigt werden.