- Versionshinweise
- Erste Schritte
- Einstellung und Konfiguration (Setup and Configuration)
- Automationsprojekte
- Über die Veröffentlichung von Automatisierungsprojekten
- Entwerfen von Automatisierungen
- Verwalten von Aktivitätspaketen
- Konfigurieren von Aktivitätsprojekteinstellungen
- Signieren von Paketen
- Governance
- Importieren von Entitäten
- Moderne Designumgebung
- Verknüpfen eines Projekts mit einer Idee im Automation Hub
- Verwenden des Data Managers
- Abhängigkeiten
- Workflow-Typen
- Dateivergleich
- Beste Praktiken für die Automatisierung (Automation Best Practices)
- Integration der Quellenkontrolle
- Debugging
- Das Diagnose-Tool
- Workflow-Analyse
- Über die Workflow-Analyse
- ST-NMG-001 – Namenskonvention für Variablen
- ST-NMG-002 – Namenskonvention für Argumente
- ST-NMG-004 – Duplizierung des Anzeigenamens
- ST-NMG-005 – Variable überschreibt Variable
- ST-NMG-006 – Variable überschreibt Argument
- ST-NMG-008 – Variablenlänge überschritten
- ST-NMG-009: Datentabellenvariablen mit Präfix versehen
- ST-NMG-011 – Datentabellenargumente mit Präfix versehen
- ST-NMG-012 – Standardwerte für Argumente
- ST-NMG-016 – Argumentlänge überschritten
- ST-DBP-002 – Hohe Anzahl von Argumenten
- ST-DBP-003 – Leerer Catch-Block
- ST-DBP-007 – Mehrere Flussdiagrammebenen
- ST-DBP-020 – Nicht definierte Ausgabeeigenschaften
- ST-DBP-023 – Leerer Workflow
- ST-DBP-024 – Prüfung der Persistenzaktivität
- ST-DBP-025 – Voraussetzung für Variablenserialisierung
- ST-DBP-026 – Verwendung der Verzögerungsaktivität
- ST-DBP-027 – Bewährte Methode für Persistenz
- ST-DBP-028 – Voraussetzung für Argumentenserialisierung
- ST-USG-005 – Hartcodierte Aktivitätsargumente
- ST-USG-009 – Nicht verwendete Variablen
- ST-USG-010 – Nicht verwendete Abhängigkeiten
- ST-USG-014 – Paketbeschränkungen
- ST-USG-020 – Minimale Protokollmeldungen
- ST-USG-024 – Nicht verwendet, gespeichert für später
- ST-USG-025 – Missbrauch gespeicherter Werte
- ST-USG-026 – Aktivitätseinschränkungen
- ST-USG-027 – Erforderliche Pakete
- ST-USG-028 – Aufruf von Dateivorlagen einschränken
- ST-USG-032 – Erforderliche Tags
- ST-USG-034 – Automation Hub-URL
- Variablen
- Argumente
- Importierte Namespaces
- Aufzeichnung
- UI-Elemente
- Kontrollfluss
- Selektoren
- Objekt-Repository
- Data-Scraping
- Bild- und Textautomatisierung
- Automatisierung von Citrix-Technologien
- RDP-Automatisierung
- Salesforce-Automatisierung
- SAP-Automation
- VMware Horizon-Automatisierung
- Protokollierung
- Das Tool ScreenScrapeJavaSupport
- Das WebDriver-Protokoll
- Test Suite – Studio
- Erweiterungen
- Fehlersuche und ‑behebung
- Informationen zur Fehlerbehebung
- Microsoft App-V – Unterstützung und Einschränkungen
- Fehlerbehebung bei Internet Explorer x64
- Probleme in Microsoft Office
- Erkennen von UI-Elementen in PDF mit Zugriffsoptionen.
- Reparieren der Active Accessibility-Unterstützung
- Automatisieren von Anwendungen, die unter einem anderen Windows-Benutzer ausgeführt werden
- Die Validierung großer Windows-Legacy-Projekte dauert länger als erwartet
Datengesteuertes Testen
Mit datengesteuerten Tests können Sie RPA-Workflows und -Anwendungen in verschiedenen Szenarien testen. Um sicherzustellen, dass Ihre Testfälle die vorbereiteten Testdaten verwenden, debuggen und führen Sie datengesteuerte Testfälle nur über den Bereich „Test Explorer“ aus. Unter Arbeiten mit dem Test Explorer erfahren Sie mehr über die Aktionen, die Sie im Bereich „Test Explorer“ ausführen können.
Wenn Sie Datenquellen für Ihre Datenvarianten konfigurieren, können Sie aus den folgenden Optionen auswählen:
- Datei, wenn Sie Excel- und CSV-Dateien verwenden möchten.
- Automatisch generieren für Testdaten, die automatisch generiert werden, um während der Ausführung so viele Pfade wie möglich abzudecken.
- Data Service, wenn Sie Data Service-Entitäten verwenden (nur Automation Cloud).
- Vorhandene Daten für Datentypen, die bereits in Ihrem Projekt gespeichert wurden, im „Testdaten“-Ordner.
- Testdaten-Warteschlange, wenn Sie ein JSON-Schema konfiguriert und eine Testdaten-Warteschlange im Orchestrator hinzugefügt haben.
In der folgenden Tabelle sind die Aktionen aufgeführt, die Sie für die Testfälle verwenden können, die Datenvarianten enthalten.
Aktion |
Beschreibung |
Verfahren |
---|---|---|
Testdaten aktualisieren |
Aktualisieren Sie die importierten Testdaten, indem Sie auswählen, ob Sie eine neue Datei erstellen oder vorhandene Daten überschreiben möchten. Sie können dies verwenden, wenn Sie Änderungen an der Excel-Datei vorgenommen haben. Alle neuen Spalten werden dem Testfall als Argumente hinzugefügt. Für Data Service-Entitäten können Sie den Testfall mit einem neuen Filter über den Abfragegenerator aktualisieren. |
4. (Optional) Wählen Sie Alle Testfälle mit denselben Testdaten aktualisieren aus, um alle Testfälle zu aktualisieren, welche die Testdaten verwenden, die Sie gerade bearbeiten. 5. Klicken Sie auf Importieren, um die Änderungen zu speichern. Hinweis: Sie können diese Aktion im Test Explorer ausführen, indem Sie mit der rechten Maustaste auf eine Datei klicken und dann Testdaten aktualisieren auswählen.
|
Testdaten entfernen |
Entfernen Sie Testdaten aus dem Testfall. |
Hinweis: Sie können diese Aktion im Test Explorer ausführen, indem Sie mit der rechten Maustaste auf eine Datei klicken und dann Testdaten entfernen auswählen.
|
Testdaten-JSON-Datei ändern |
Aktualisieren Sie Testdaten direkt in der JSON-Datei. Die Datei wird erstellt, nachdem dem Testfall Testdaten hinzugefügt wurden. Wichtig: Nur für Testdatendateien.
|
|