- Versionshinweise
- Erste Schritte
- Einstellung und Konfiguration (Setup and Configuration)
- Automationsprojekte
- Abhängigkeiten
- Workflow-Typen
- Dateivergleich
- Beste Praktiken für die Automatisierung (Automation Best Practices)
- Integration der Quellenkontrolle
- Debugging
- Das Diagnose-Tool
- Workflow-Analyse
- Über die Workflow-Analyse
- ST-NMG-001 – Namenskonvention für Variablen
- ST-NMG-002 – Namenskonvention für Argumente
- ST-NMG-004 – Duplizierung des Anzeigenamens
- ST-NMG-005 – Variable überschreibt Variable
- ST-NMG-006 – Variable überschreibt Argument
- ST-NMG-008 – Variablenlänge überschritten
- ST-NMG-009: Datentabellenvariablen mit Präfix versehen
- ST-NMG-011 – Datentabellenargumente mit Präfix versehen
- ST-NMG-012 – Standardwerte für Argumente
- ST-NMG-016 – Argumentlänge überschritten
- ST-DBP-002 – Hohe Anzahl von Argumenten
- ST-DBP-003 – Leerer Catch-Block
- ST-DBP-007 – Mehrere Flussdiagrammebenen
- ST-DBP-020 – Nicht definierte Ausgabeeigenschaften
- ST-DBP-023 – Leerer Workflow
- ST-DBP-024 – Prüfung der Persistenzaktivität
- ST-DBP-025 – Voraussetzung für Variablenserialisierung
- ST-DBP-026 – Verwendung der Verzögerungsaktivität
- ST-DBP-027 – Bewährte Methode für Persistenz
- ST-DBP-028 – Voraussetzung für Argumentenserialisierung
- ST-USG-005 – Hartcodierte Aktivitätsargumente
- ST-USG-009 – Nicht verwendete Variablen
- ST-USG-010 – Nicht verwendete Abhängigkeiten
- ST-USG-014 – Paketbeschränkungen
- ST-USG-020 – Minimale Protokollmeldungen
- ST-USG-024 – Nicht verwendet, gespeichert für später
- ST-USG-025 – Missbrauch gespeicherter Werte
- ST-USG-026 – Aktivitätseinschränkungen
- ST-USG-027 – Erforderliche Pakete
- Variablen
- Argumente
- Importierte Namespaces
- Aufzeichnung
- UI-Elemente
- Kontrollfluss
- Selektoren
- Objekt-Repository
- Data-Scraping
- Bild- und Textautomatisierung
- Automatisierung von Citrix-Technologien
- RDP-Automatisierung
- SAP-Automation
- VMware Horizon-Automatisierung
- Protokollierung
- Das ScaleCoordinates-Migrationstool
- Das Tool ScreenScrapeJavaSupport
- Das WebDriver-Protokoll
- StudioPro
- Erweiterungen
- Fehlersuche und ‑behebung
- Internet Explorer x64
- Microsoft Office Interop-Probleme
- Erkennen von UI-Elementen in PDF mit Zugriffsoptionen.
- Erkennen von UI-Elementen nach Windows-Aktualisierungen.
- JxBrowser-Anwendungen
- Überwachung der Benutzerereignisse (User Events Monitoring)
- Java in App-V
- Microsoft App-V – Unterstützung und Einschränkungen
- Citrix-Fehlerbehebung
RPA-Tests
RPA-Tests wurde entwickelt, um Workflows direkt zu testen und die Aktivitätsabdeckung während der Ausführung anzuzeigen. Solche Testprozesse stellen sicher, dass die Ausführung durchgeführt wird und alle Grenzfälle abgedeckt werden, unabhängig von den Entscheidungen, die während der Ausführung getroffen werden.
Eine RPA-Testdatei kann durch Aufrufen eines Workflows im Projekt erstellt werden. Klicken Sie im Projektbereich mit der rechten Maustaste auf einen Workflow, und wählen Sie Testfall erstellen oder Datengesteuerter Testfall aus:
Sie können beim Erstellen von Testfällen Pseudo-Workflow im Test auswählen, wenn Sie eine Kopie Ihres Workflows erstellen möchten, in der Sie bestimmte Aktivitäten nachbilden können. Weitere Informationen finden Sie unter Pseudo-Tests.
.xaml
wird erstellt, der den Workflow aufruft und über drei zusätzliche Container verfügt: Given, When und Then. Die Datei wird in der Aktivität Workflowdatei aufrufen aufgerufen, die Teil des Containers When ist.
Argumente aus dem Workflow werden automatisch importiert. Um weitere Argumente anzuzeigen oder hinzuzufügen, klicken Sie auf die Schaltfläche Argumente importieren der Aktivität Workflowdatei aufrufen.
Zum Überprüfen der Aktivitätsabdeckung des Workflows debuggen Sie den neu erstellten Testfall, und zeigen Sie abgedeckte und nicht abgedeckte Testfälle im Bereich Aktivitätsabdeckung an.
Bei der Durchführung dieser Aktion in unserem Beispiel haben wir die folgende Abdeckung erhalten:
Laut der Nachricht deckte dieser Testfall nur 53 % der Aktivitäten aus dem Workflow ab. Je nach Ihren Automatisierungsanforderungen können Sie separate Testfälle erstellen, um jedes Szenario während der Ausführung abzudecken. Das obige Flussdiagramm verwendet z. B. eine Flow Switch-Aktivität. Wir können dann einen weiteren Testfall erstellen, um die Ausführung eines anderen Szenarios zu verfolgen, wie im Falle von Krediten mit geringem Volumen.
.csv
-Datei importiert und eine Für jede-Aktivität verwendet, damit sie jede Aktivität im Workflow durchläuft:
Beim Debuggen wurde eine Aktivitätsabdeckungsrate von 100 % erreicht, was bedeutet, dass das im Testfall verwendete Dataset zusammen mit den hinzugefügten Aktivitäten alle möglichen Szenarien im Projekt abdeckte.
Testfälle werden nur verpackt, wenn sie als veröffentlichbar festgelegt sind. Klicken Sie im Projekt-Panel mit der rechten Maustaste auf einen Testfall, und wählen Sie Als veröffentlichbar festlegen aus. Mehr über das Festlegen von Testfällen als veröffentlichbar finden Sie hier.
Die Veröffentlichung erfolgt, indem Sie auf die Menübandoption Veröffentlichen oder Veröffentlichen von Testfällen klicken:
- Veröffentlichen - veröffentlicht das gesamte Projekt zusammen mit Testfällen;
-
Testfälle veröffentlichen – Veröffentlicht das Projekt als Testfall, der über die Seite Testfälle vom Orchestrator verwaltet werden soll.