- Versionshinweise
- Erste Schritte
- Einstellung und Konfiguration (Setup and Configuration)
- Automationsprojekte
- Über die Veröffentlichung von Automatisierungsprojekten
- Entwerfen von Automatisierungen
- Verwalten von Aktivitätspaketen
- Konfigurieren von Aktivitätsprojekteinstellungen
- Signieren von Paketen
- Governance
- Importieren von Entitäten
- Moderne Designumgebung
- Verknüpfen eines Projekts mit einer Idee im Automation Hub
- Verwenden des Data Managers
- Abhängigkeiten
- Workflow-Typen
- Dateivergleich
- Beste Praktiken für die Automatisierung (Automation Best Practices)
- Integration der Quellenkontrolle
- Debugging
- Das Diagnose-Tool
- Workflow-Analyse
- Über die Workflow-Analyse
- ST-NMG-001 – Namenskonvention für Variablen
- ST-NMG-002 – Namenskonvention für Argumente
- ST-NMG-004 – Duplizierung des Anzeigenamens
- ST-NMG-005 – Variable überschreibt Variable
- ST-NMG-006 – Variable überschreibt Argument
- ST-NMG-008 – Variablenlänge überschritten
- ST-NMG-009: Datentabellenvariablen mit Präfix versehen
- ST-NMG-011 – Datentabellenargumente mit Präfix versehen
- ST-NMG-012 – Standardwerte für Argumente
- ST-NMG-016 – Argumentlänge überschritten
- ST-DBP-002 – Hohe Anzahl von Argumenten
- ST-DBP-003 – Leerer Catch-Block
- ST-DBP-007 – Mehrere Flussdiagrammebenen
- ST-DBP-020 – Nicht definierte Ausgabeeigenschaften
- ST-DBP-023 – Leerer Workflow
- ST-DBP-024 – Prüfung der Persistenzaktivität
- ST-DBP-025 – Voraussetzung für Variablenserialisierung
- ST-DBP-026 – Verwendung der Verzögerungsaktivität
- ST-DBP-027 – Bewährte Methode für Persistenz
- ST-DBP-028 – Voraussetzung für Argumentenserialisierung
- ST-USG-005 – Hartcodierte Aktivitätsargumente
- ST-USG-009 – Nicht verwendete Variablen
- ST-USG-010 – Nicht verwendete Abhängigkeiten
- ST-USG-014 – Paketbeschränkungen
- ST-USG-020 – Minimale Protokollmeldungen
- ST-USG-024 – Nicht verwendet, gespeichert für später
- ST-USG-025 – Missbrauch gespeicherter Werte
- ST-USG-026 – Aktivitätseinschränkungen
- ST-USG-027 – Erforderliche Pakete
- ST-USG-028 – Aufruf von Dateivorlagen einschränken
- ST-USG-032 – Erforderliche Tags
- ST-USG-034 – Automation Hub-URL
- Variablen
- Argumente
- Importierte Namespaces
- Aufzeichnung
- UI-Elemente
- Kontrollfluss
- Selektoren
- Objekt-Repository
- Data-Scraping
- Bild- und Textautomatisierung
- Automatisierung von Citrix-Technologien
- RDP-Automatisierung
- Salesforce-Automatisierung
- SAP-Automation
- VMware Horizon-Automatisierung
- Protokollierung
- Das Tool ScreenScrapeJavaSupport
- Das WebDriver-Protokoll
- Test Suite – Studio
- Erweiterungen
- Fehlersuche und ‑behebung
- Informationen zur Fehlerbehebung
- Microsoft App-V – Unterstützung und Einschränkungen
- Fehlerbehebung bei Internet Explorer x64
- Probleme in Microsoft Office
- Erkennen von UI-Elementen in PDF mit Zugriffsoptionen.
- Reparieren der Active Accessibility-Unterstützung
- Automatisieren von Anwendungen, die unter einem anderen Windows-Benutzer ausgeführt werden
- Die Validierung großer Windows-Legacy-Projekte dauert länger als erwartet
Testdatendatei
Anwendungstests können große Datensätze erfordern, um die Workflow-Ausführung zu überprüfen und Grenzfälle abzudecken. Anstatt mehrere Testfälle für jeden Datensatz zu erstellen, können Sie Ihre Datensätze importieren und mit Ihren Projekten verwenden. Die Testdaten werden als JSON-Datei in Ihr Projekt importiert. Sie finden diese Datei unter Projekt > Testdaten.
Package.VariationFile.MaxSizeInKBytes
.
- Erstellen Sie einen neuen Testfall mit Testdaten oder fügen Sie Testdaten zu einem vorhandenen Testfall hinzu.
- Klicken Sie auf Quelle und wählen Sie Datei aus der Dropdownliste aus.
- Wählen Sie die Spalten aus, die Sie hinzufügen möchten.
Suchen Sie nach Ihrer XLSX- oder CSV-Datei und wählen Sie dann das Arbeitsblatt aus. Wenn Sie über eine aktualisierte JSON-Datei verfügen, können Sie diese aus der Dropdownliste auswählen.
- Wählen Sie einzelne oder alle Werte aus Ihrer Datendatei aus.
InArgument
zusammen mit den zugehörigen Werten aus der Excel-Datei importiert, wie Sie im folgenden Screenshot mit dem Workflow und der Excel-Datei gegenübergestellt sehen können.
- Fügen Sie Testdaten beim Erstellen eines Testfalls hinzu.
- Verify Expression with Operator. Damit können Sie die Workflow-Werte mit den von der Excel-Datei importierten Werten vergleichen.
- Fügen Sie Testdaten über das Test Explorer-Kontextmenü hinzu.
Sie können Ihren Testfall mit ausgewählten oder allen Testdaten debuggen oder ausführen.
- Klicken Sie im Menüband Design auf Datei mit Datenvarianten ausführen oder auf Datei mit Datenvarianten debuggen.
-
Wählen Sie die Daten aus, die Sie verwenden möchten, und bestätigen Sie Ihre Aktion.
Wenn Sie für Ihren Testfall die Aktivität Verify Expression with Operator verwenden, wird die Ausführung einmal für jedes ausgewählte Dataset ausgeführt.