- Versionshinweise
- Erste Schritte
- Einstellung und Konfiguration (Setup and Configuration)
- Automationsprojekte
- Abhängigkeiten
- Workflow-Typen
- Dateivergleich
- Beste Praktiken für die Automatisierung (Automation Best Practices)
- Integration der Quellenkontrolle
- Debugging
- Das Diagnose-Tool
- Workflow-Analyse
- Über die Workflow-Analyse
- ST-NMG-001 – Namenskonvention für Variablen
- ST-NMG-002 – Namenskonvention für Argumente
- ST-NMG-004 – Duplizierung des Anzeigenamens
- ST-NMG-005 – Variable überschreibt Variable
- ST-NMG-006 – Variable überschreibt Argument
- ST-NMG-008 – Variablenlänge überschritten
- ST-NMG-009: Datentabellenvariablen mit Präfix versehen
- ST-NMG-011 – Datentabellenargumente mit Präfix versehen
- ST-NMG-012 – Standardwerte für Argumente
- ST-NMG-016 – Argumentlänge überschritten
- ST-DBP-002 – Hohe Anzahl von Argumenten
- ST-DBP-003 – Leerer Catch-Block
- ST-DBP-007 – Mehrere Flussdiagrammebenen
- ST-DBP-020 – Nicht definierte Ausgabeeigenschaften
- ST-DBP-023 – Leerer Workflow
- ST-DBP-024 – Prüfung der Persistenzaktivität
- ST-DBP-025 – Voraussetzung für Variablenserialisierung
- ST-DBP-026 – Verwendung der Verzögerungsaktivität
- ST-DBP-027 – Bewährte Methode für Persistenz
- ST-DBP-028 – Voraussetzung für Argumentenserialisierung
- ST-USG-005 – Hartcodierte Aktivitätsargumente
- ST-USG-009 – Nicht verwendete Variablen
- ST-USG-010 – Nicht verwendete Abhängigkeiten
- ST-USG-014 – Paketbeschränkungen
- ST-USG-020 – Minimale Protokollmeldungen
- ST-USG-024 – Nicht verwendet, gespeichert für später
- ST-USG-025 – Missbrauch gespeicherter Werte
- ST-USG-026 – Aktivitätseinschränkungen
- ST-USG-027 – Erforderliche Pakete
- Variablen
- Argumente
- Importierte Namespaces
- Aufzeichnung
- UI-Elemente
- Kontrollfluss
- Selektoren
- Objekt-Repository
- Data-Scraping
- Bild- und Textautomatisierung
- Automatisierung von Citrix-Technologien
- RDP-Automatisierung
- SAP-Automation
- VMware Horizon-Automatisierung
- Protokollierung
- Das ScaleCoordinates-Migrationstool
- Das Tool ScreenScrapeJavaSupport
- Das WebDriver-Protokoll
- StudioPro
- Einleitung
- Anwendungstests
- RPA-Tests
- API-Testautomatisierung
- Pseudo-Tests
- Erweiterungen
- Fehlersuche und ‑behebung
- Internet Explorer x64
- Microsoft Office Interop-Probleme
- Erkennen von UI-Elementen in PDF mit Zugriffsoptionen.
- Erkennen von UI-Elementen nach Windows-Aktualisierungen.
- JxBrowser-Anwendungen
- Überwachung der Benutzerereignisse (User Events Monitoring)
- Java in App-V
- Microsoft App-V – Unterstützung und Einschränkungen
- Citrix-Fehlerbehebung
Studio-Benutzerhandbuch
Anwendungstests
Studio Pro unterstützt die Erstellung spezieller Testfälle für die Durchführung automatisierter Anwendungstests, entweder in VB oder C#. Einzelne Testautomatisierungsprojekte können in StudioPro erstellt, zum Überprüfen von Daten verwendet und in CI/CD-Pipelineszenarien eingeschlossen werden.
Anwendungstests können mit Testfällen und datengesteuerten Testfällen, Sequences, die Verifizierungsaktivitäten als Teil des Pakets UiPath.Testing.Activities verwenden, sowie zusammen mit Aktivitäten aus anderen Paketen durchgeführt werden.
Datengesteuerte Testfälle verwenden Daten, die als Argumente in das Projekt importiert wurden, um die Ausführung des Testfalls zu überprüfen. Bei der Ausführung können die gesamten Daten oder nur bestimmte Werte verwendet werden.
.xaml
-Dateien werden aufgerufen.
Mit Studio Pro können Workflows in Testfälle konvertiert oder als Testfälle aus anderen Projekten importiert werden. Später können Anwendungstestprojekte im Orchestrator veröffentlicht, verwaltet und über die Seite Testfälle ausgeführt werden.
Verwenden Sie den Projekttyp Testautomatisierung aus Backstage-Ansicht > Start, um mit dem Entwerfen eines Testfalls zu beginnen.
.xaml
-Dateien können einem Projekt hinzugefügt werden, indem Sie auf den Menüband die Option Neu > Testfall verwenden.
Die Standardaktivitätspakete für diesen Projekttyp sind: UiPath.System.Activities, UiPath.UIAutomation.Activities und Verifizierungsaktivitäten von UiPath.Testing.Activities.
Verifizierungsaktivitäten wie Verify Control Attribute, Verify Expression und Verify Expression with Operator werden zum Testen der von Ihren Workflows verwendeten Daten verwendet.
Solche Aktivitäten verhalten sich anders, wenn sie ausgeführt werden oder wenn Fehler behoben werden. Wenn bei einer Überprüfungsaktivität ein Fehler auftritt, löst die Ausführung den Fehler weiter aus und protokolliert die fehlgeschlagene Aktivität im Bereich Ausgabe. Wenn die Aktivität erfolgreich ausgeführt wurde, wird sie im Bereich markiert.
Anwendungstests können die Arbeit mit großen Datasets erfordern, um die Workflowausführung zu überprüfen und Grenzfälle abzudecken. Anstatt mehrere Testfälle für jedes Dataset zu erstellen, importieren und verwenden Sie Ihre Datasets innerhalb des Projekts mit dem Dateityp Datengesteuerter Testfall.
Klicken Sie im Projekt-Panel mit der rechten Maustaste auf einen Testfall und wählen Sie Testdaten hinzufügen aus.
Wechseln Sie zur Variationsdatei, um eine zu importierende Excel-Datei auszuwählen, und wählen Sie dann ein Arbeitsblatt aus.
InArgument
-Typen zusammen mit Werten aus der Datei importiert.
Als nächsten Schritt können Sie die Aktivität Verify Expression with Operator verwenden, um Werte mit denen aus der importierten Excel-Datei zu vergleichen, indem Sie die verfügbaren Operatoren verwenden. Lesen Sie hier mehr zu dieser Aktivität.
Das Ausführen oder Debuggen eines datengesteuerten Testfalls kann auf zwei Arten erfolgen, indem entweder alle importierten Daten verwendet werden oder nach eigenem Ermessen die spezifischen Daten ausgewählt werden, die verwendet werden sollen.
Klicken Sie auf Datei mit Datenvarianten ausführen oder auf Optionen für Datei mit Datenvarianten debuggen aus dem Menüband. Das Fenster Datenvarianten wird geöffnet:
Wählen Sie die Daten aus, die Sie zum Ausführen oder Debuggen des Testfalls verwenden möchten, indem Sie auf das Kontrollkästchen neben jeder Zeile klicken. Klicken Sie auf Ausführen oder Debug, nachdem eine Auswahl getroffen wurde.
Wenn das Testfallprojekt die Aktivität Ausdruck mit Operator überprüfen verwendet, wird die Ausführung einmal für jedes ausgewählte Dataset ausgeführt.
Wenn Änderungen am Excel-Dataset vorgenommen wurden, entfernen Sie das Dataset und fügen Sie es im Testfallprojekt erneut hinzu.
.xaml
-Datei klicken und Testdaten entfernen auswählen:
Ein neues Dataset kann hinzugefügt werden, indem Sie die Option Testdaten hinzufügen auswählen.
Vorhandene Workflows, die zu Testzwecken verwendet werden, können mit Studio Pro in und aus Testfällen konvertiert werden. Darüber hinaus können Sie aus vorhandenen Prozessen ein RPA-Testprojekt erstellen.
Um Workflows in Testfälle zu konvertieren, klicken Sie mit der rechten Maustaste auf die Dateien im Projektfenster, und wählen Sie In Testfall konvertieren aus:
Wenn Sie bereits Workflows oder Testfälle erstellt haben, können Sie diese in Ihr aktuelles Projekt importieren, indem Sie mit der rechten Maustaste auf den Projektknoten klicken und Testfälle importieren auswählen:
.xaml
-Dateien werden der Projektstruktur als Entwurfstestfälle hinzugefügt.
Ähnlich wie das Importieren von Datensammlungen in Bibliotheken einer API-Testautomatisierung können Sie solche Sammlungen mithilfe des Assistenten Neuer Dienst in Ihre Anwendungstestprozesse importieren.
Beachten Sie, dass dies nur für Bibliotheken und Testautomatisierungsprojekte verfügbar ist, die mit einer Studio Pro-Lizenz erstellt wurden.
.xaml
-Dateien im Bereich Projekt als „Veröffentlichungsfähig“ festgelegt werden.
Multi-Select ist verfügbar, halten Sie einfach die Strg-Taste, während Sie jede Datei einzeln auswählen, und klicken Sie dann mit der rechten Maustaste auf „Als veröffentlichungsfähig festlegen“.
.nupkg
-Datei verpackt zu werden.
Das Veröffentlichen von Testfällen wird auf ähnliche Weise wie bei anderen Projekttypen ausgeführt. Verwenden Sie die Option Veröffentlichen im Studio Pro-Menüband. Sie können eine Version des Projekts festlegen und die Optionen für die Zertifikatsignierung verwenden. Weitere Informationen über das Veröffentlichen von Projekten finden Sie hier.
Testfälle können im Orchestrator, in Roboterstandards oder in einem benutzerdefinierten Pfad veröffentlicht werden. Wenn Sie sie im Orchestrator veröffentlichen möchten, stellen Sie sicher, dass Ihr Roboter oder UiPath Assistant mit dem Orchestrator verbunden ist. Befolgen Sie dafür die hier angegebenen Schritte.