- Versionshinweise
- Erste Schritte
- Einstellung und Konfiguration (Setup and Configuration)
- Automationsprojekte
- Über die Veröffentlichung von Automatisierungsprojekten
- Entwerfen von Automatisierungen
- Verwalten von Aktivitätspaketen
- Konfigurieren von Aktivitätsprojekteinstellungen
- Signieren von Paketen
- Governance
- Importieren von Entitäten
- Moderne Designumgebung
- Verknüpfen eines Projekts mit einer Idee im Automation Hub
- Verwenden des Data Managers
- Abhängigkeiten
- Workflow-Typen
- Kontrollfluss
- Dateivergleich
- Beste Praktiken für die Automatisierung (Automation Best Practices)
- Integration der Quellenkontrolle
- Informationen zur Versionskontrolle
- Verwalten von Projekten mit TFS
- Verwalten von Projekten mit SVN
- Workflow Diff
- Debugging
- Protokollierung
- Das Diagnose-Tool
- Workflow-Analyse
- Über die Workflow-Analyse
- ST-NMG-001 – Namenskonvention für Variablen
- ST-NMG-002 – Namenskonvention für Argumente
- ST-NMG-004 – Duplizierung des Anzeigenamens
- ST-NMG-005 – Variable überschreibt Variable
- ST-NMG-006 – Variable überschreibt Argument
- ST-NMG-008 – Variablenlänge überschritten
- ST-NMG-009: Datentabellenvariablen mit Präfix versehen
- ST-NMG-011 – Datentabellenargumente mit Präfix versehen
- ST-NMG-012 – Standardwerte für Argumente
- ST-NMG-016 – Argumentlänge überschritten
- ST-NMG-017 – Der Klassenname stimmt mit dem Standard-Namespace überein
- ST-DBP-002 – Hohe Anzahl von Argumenten
- ST-DBP-003 – Leerer Catch-Block
- ST-DBP-007 – Mehrere Flussdiagrammebenen
- ST-DPB-010 – Mehrere Instanzen von [Workflow] oder [Testfall]
- ST-DBP-020 – Nicht definierte Ausgabeeigenschaften
- ST-DBP-021 – Hartcodiertes Timeout
- ST-DBP-023 – Leerer Workflow
- ST-DBP-024 – Prüfung der Persistenzaktivität
- ST-DBP-025 – Voraussetzung für Variablenserialisierung
- ST-DBP-026 – Verwendung der Verzögerungsaktivität
- ST-DBP-027 – Bewährte Methode für Persistenz
- ST-DBP-028 – Voraussetzung für Argumentenserialisierung
- ST-USG-005 – Hartcodierte Aktivitätsargumente
- ST-USG-009 – Nicht verwendete Variablen
- ST-USG-010 – Nicht verwendete Abhängigkeiten
- ST-USG-014 – Paketbeschränkungen
- ST-USG-017 - Invalid parameter modifier
- ST-USG-020 – Minimale Protokollmeldungen
- ST-USG-024 – Nicht verwendet, gespeichert für später
- ST-USG-025 – Missbrauch gespeicherter Werte
- ST-USG-026 – Aktivitätseinschränkungen
- ST-USG-027 – Erforderliche Pakete
- ST-USG-028 – Aufruf von Dateivorlagen einschränken
- ST-USG-032 – Erforderliche Tags
- ST-USG-034 – Automation Hub-URL
- Variablen
- Argumente
- Importierte Namespaces
- Codierte Automatisierungen
- Einleitung
- Registrieren von benutzerdefinierten Diensten
- „Vor“- und „Nach“-Kontexte
- Generieren von Code
- Generieren eines codierten Testfalls aus manuellen Testfällen
- Triggerbasierte Attended-Automatisierung
- Aufzeichnung
- UI-Elemente
- Selektoren
- Objekt-Repository
- Data-Scraping
- Bild- und Textautomatisierung
- Automatisierung von Citrix-Technologien
- RDP-Automatisierung
- VMware Horizon-Automatisierung
- Salesforce-Automatisierung
- SAP-Automation
- macOS UI-Automatisierung
- Das Tool ScreenScrapeJavaSupport
- Das WebDriver-Protokoll
- Erweiterungen
- Über Erweiterungen
- SetupExtensions-Tool
- „UiPathRemoteRuntime.exe“ wird nicht in der Remotesitzung ausgeführt.
- UiPath Remote Runtime blockiert das Schließen der Citrix-Sitzung
- UiPath Remote Runtime verursacht Speicherverlust
- Versionen von UiPath.UIAutomation.Activities-Paket und UiPath Remote Runtime stimmen nicht überein
- Die erforderliche UiPath-Erweiterung ist auf der Remotemaschine nicht installiert
- Einstellungen für die Bildschirmauflösung
- Gruppenrichtlinien
- Kommunikation mit Browser nicht möglich
- Die Chrome-Erweiterung wird automatisch entfernt
- Möglicherweise ist die Erweiterung beschädigt
- Überprüfen Sie, ob die Erweiterung für Chrome installiert und aktiviert ist
- Überprüfen Sie, ob ChromeNativeMessaging.exe ausgeführt wird
- Überprüfen der korrekten Definition der ComSpec-Variablen
- Aktivieren Sie den Zugriff auf Datei-URLs und den Inkognito-Modus
- Mehrere Browser-Profile
- Group Policy conflict
- Spezifische bekannte Probleme für MV3-Erweiterungen
- Liste der Erweiterungen für Chrome
- Chrome-Erweiterung für Mac
- Gruppenrichtlinien
- Kommunikation mit Browser nicht möglich
- Die Edge-Erweiterung wird automatisch entfernt
- Möglicherweise ist die Erweiterung beschädigt
- Überprüfen, ob die Erweiterung für Microsoft Edge installiert und aktiviert ist
- Überprüfen Sie, ob ChromeNativeMessaging.exe ausgeführt wird
- Überprüfen der korrekten Definition der ComSpec-Variablen
- Aktivieren des Zugriffs auf Datei-URLs und den InPrivate-Modus
- Mehrere Browser-Profile
- Group Policy conflict
- Spezifische bekannte Probleme für MV3-Erweiterungen
- Liste der Erweiterungen für Edge
- Erweiterung für Safari
- Erweiterung für VMware Horizon
- Erweiterung für Amazon WorkSpaces
- SAP Solution Manager-Plugin
- Excel-Add-in
- Test Suite – Studio
- Einleitung
- Anwendungstests
- Arbeiten mit manuellen Testfällen
- Ausführungsvorlagen
- Pseudo-Tests
- API-Testautomatisierung
- Fehlersuche und ‑behebung
- Informationen zur Fehlerbehebung
- Assembly compilation errors
- Microsoft App-V – Unterstützung und Einschränkungen
- Fehlerbehebung bei Internet Explorer x64
- Probleme in Microsoft Office
- Erkennen von UI-Elementen in PDF mit Zugriffsoptionen.
- Reparieren der Active Accessibility-Unterstützung
- Die Validierung großer Windows-Legacy-Projekte dauert länger als erwartet
Studio-Benutzerhandbuch
Arbeiten mit manuellen Testfällen
Sobald Sie eine Verbindung mit einer Test Manager-Instanz und einem Studio-Projekt hergestellt haben, können Sie zum Test Explorer-Bereich navigieren. Zunächst können Sie manuelle Tests innerhalb des zugehörigen Projekts in Low-Code- oder codierte Testfälle umwandeln. Zweitens können Sie codierte Testfälle über unsere KI-Funktionen mit AutopilotTM erstellen. Bei Bedarf können Sie diese manuellen Tests im Test Manager überprüfen, indem Sie auf den Testfall im Test Explorer-Bereich doppelklicken, bevor Sie sie automatisieren.
Sie können vollautomatisierte Testfälle mit Generative AI unterstützt von AutopilotTM generieren.
Bevor Sie beginnen, lesen Sie die Best Practices für die KI-gestützte Testautomatisierung, um sicherzustellen, dass Sie die codierten Testfälle effektiv generieren.
- Verbinden Sie Studio mit einem Test Manager-Projekt.
- Erstellen Sie Elemente im Objekt-Repository, die die UI-Elemente aus den manuellen Tests widerspiegeln.
Hinweis: Autopilot verwendet Object Repository-Elemente, um UI-Elemente in Testschritten zu automatisieren. Die Elemente werden in den APIs als
IElementDescriptors
verwendet.
Sie können codierte Testfälle entweder über die Studio IDE oder über den Test Explorer-Bereich generieren.
Um einen codierten Testfall aus der Studio IDE zu generieren, können Sie einen neuen codierten Testfall erstellen und Autopilot verwenden, um den Code dafür zu generieren. Weitere Informationen zum Generieren von Code finden Sie unter Generieren von Code.
Führen Sie die folgenden Schritte aus, um den codierten Testfall aus dem Bereich „Test Explorer“ zu generieren:
- Wählen Sie im Test Explorer-Bereich die Option Manuelle Testfälle aus, um die manuellen Testfälle anzuzeigen, die Sie in Automatisierungen konvertieren können.
- Klicken Sie mit der rechten Maustaste auf einen manuellen Testfall und wählen Sie Codierten Testfall mit Autopilot generieren aus.
Das Ergebnis ist ein codierter Testfall, der UiPath-APIs verwendet, um den Code für die Automatisierung des gesamten manuellen Tests zu generieren. Die manuellen Schritte werden als Kommentare am Anfang des Testfalls angezeigt.
Bevor Sie beginnen, besuchen Sie die Best Practices für die KI-basierte Testautomatisierung, um sicherzustellen, dass Sie die Low-Code-Testfälle effektiv generieren.
- Verbinden Sie Studio mit einem Test Manager-Projekt.
- Erstellen Sie Elemente im Objekt-Repository, die die UI-Elemente aus den manuellen Tests widerspiegeln.
Hinweis: Autopilot verwendet Object Repository-Elemente, um UI-Elemente in Testschritten zu automatisieren.
Sie können Low-Code-Testfälle entweder über den Designer-Bereich oder über den Test Explorer-Bereich generieren.
Führen Sie die folgenden Schritte aus, um Low-Code-Testfälle aus dem Test Explorer-Bereich zu generieren:
- Wählen Sie im Test Explorer-Bereich die Option Manuelle Testfälle aus, um die manuellen Testfälle anzuzeigen, die Sie in Automatisierungen konvertieren können.
- Klicken Sie mit der rechten Maustaste auf einen manuellen Testfall und wählen Sie Testfall mit Autopilot generieren aus.
Das Ergebnis ist ein Testfall mit wenig Code, der Aktivitäten verwendet, um die Automatisierung für den gesamten manuellen Test zu generieren.
Führen Sie die folgenden Schritte aus, um Low-Code-Testfälle im Designer-Bereich zu generieren:
- Öffnen Sie Ihren leeren Low-Code-Testfall und wählen Sie Mit Autopilot generieren aus dem Designer-Bereich aus.
Ein Textfeld Anmerkung eingeben wird angezeigt, in das Sie Ihre Anweisungen eingeben können.
- Geben Sie die erforderlichen Testschritte ein und wählen Sie dann Generieren aus, um die Generierung Ihres Testfalls auszulösen.
Bei Bedarf können Sie die Anweisungen speichern und später darauf zurückgreifen. Wählen Sie Speichern aus, wenn Sie die Anweisungen speichern möchten.
Hinweis: Sie können diese Schritte zum Erstellen von Aktivitäten in Do-Blöcken oder in den Textkörpern anderer Aktivitäten verwenden.Abbildung 1. Eingeben der Anweisungen für Autopilot in das Textfeld Anmerkung eingeben
Führen Sie die folgenden Schritte aus, um eine einzelne Aktivität zu generieren:
- Wählen Sie Aktivität hinzufügen aus oder verwenden Sie die Verknüpfung
Ctrl + Shift + T
, um die Studio-Suchleiste zu öffnen. - Geben Sie Ihre Anweisungen in die Studio-Suchleiste ein.
- Wählen Sie Mit Autopilot generieren am Ende der Suchleistenliste aus.
Mit diesem Befehl können Sie in natürlicher Sprache Automatisierungsschritte, einschließlich Testschritte, basierend auf Ihren Eingaben generieren.
Sie können einen codierten Testfall aus einem manuellen Test erstellen, sodass Studio einen codierten Testfall generiert, der nach dem manuellen Test benannt ist.
Voraussetzungen:
- Verbindung mit dem Test Manager herstellen:
- Klicken Sie im Studio-Header auf Test Manager.
- Klicken Sie auf Test Manager-Einstellungen.
- Geben Sie die Basis-URL Ihrer Test Manager-Instanz ein und klicken Sie auf Verbinden.
- Wählen Sie unter Standardprojekt das Projekt aus, in dem Sie arbeiten möchten. Dieses Projekt sollte die manuellen Tests enthalten, mit denen Sie arbeiten möchten.
- Öffnen Sie den Bereich Test Explorer.
- Klicken Sie mit der rechten Maustaste auf einen manuellen Testfall aus der Liste der Testfälle in Ihrem Standardprojekt.
- Klicken Sie auf Codierten Testfall erstellen.
Ergebnis: Ein neuer codierter Testfall wird automatisch erstellt, der den gleichen Namen wie der manuelle Test hat. In diesem codierten Testfall werden die manuellen Schritte als Kommentare angezeigt.
Sie können einen Low-Code-Testfall aus einem manuellen Test generieren, wobei die manuellen Schritte als Comment-Aktivitäten angezeigt werden.
- Verbinden Sie Studio mit einem Test Manager-Projekt.
- Wählen Sie im Test Explorer-Bereich die Option Manuelle Testfälle aus, um die manuellen Testfälle anzuzeigen, die Sie in Low-Code-Testfälle konvertieren können.
- Klicken Sie mit der rechten Maustaste auf einen manuellen Testfall und wählen Sie Testfall erstellen aus.
Das Ergebnis ist ein Low-Code-Testfall, der die manuellen Schritte als Comment-Aktivitäten in die XAML-Datei setzt.