- Versionshinweise
- Erste Schritte
- Einstellung und Konfiguration (Setup and Configuration)
- Automationsprojekte
- Über die Veröffentlichung von Automatisierungsprojekten
- Entwerfen von Automatisierungen
- Verwalten von Aktivitätspaketen
- Konfigurieren von Aktivitätsprojekteinstellungen
- Signieren von Paketen
- Governance
- Importieren von Entitäten
- Verknüpfen eines Projekts mit einer Idee im Automation Hub
- Verwenden des Data Managers
- Abhängigkeiten
- Workflow-Typen
- Kontrollfluss
- Dateivergleich
- Beste Praktiken für die Automatisierung (Automation Best Practices)
- Integration der Quellenkontrolle
- Informationen zur Versionskontrolle
- Verwalten von Projekten mit TFS
- Verwalten von Projekten mit SVN
- Workflow Diff
- Debugging
- Protokollierung
- Das Diagnose-Tool
- Workflow-Analyse
- Über die Workflow-Analyse
- ST-NMG-001 – Namenskonvention für Variablen
- ST-NMG-002 – Namenskonvention für Argumente
- ST-NMG-004 – Duplizierung des Anzeigenamens
- ST-NMG-005 – Variable überschreibt Variable
- ST-NMG-006 – Variable überschreibt Argument
- ST-NMG-008 – Variablenlänge überschritten
- ST-NMG-009: Datentabellenvariablen mit Präfix versehen
- ST-NMG-011 – Datentabellenargumente mit Präfix versehen
- ST-NMG-012 – Standardwerte für Argumente
- ST-NMG-016 – Argumentlänge überschritten
- ST-NMG-017 – Der Klassenname stimmt mit dem Standard-Namespace überein
- ST-DBP-002 – Hohe Anzahl von Argumenten
- ST-DBP-003 – Leerer Catch-Block
- ST-DBP-007 – Mehrere Flussdiagrammebenen
- ST-DPB-010 – Mehrere Instanzen von [Workflow] oder [Testfall]
- ST-DBP-020 – Nicht definierte Ausgabeeigenschaften
- ST-DBP-021 – Hartcodiertes Timeout
- ST-DBP-023 – Leerer Workflow
- ST-DBP-024 – Prüfung der Persistenzaktivität
- ST-DBP-025 – Voraussetzung für Variablenserialisierung
- ST-DBP-026 – Verwendung der Verzögerungsaktivität
- ST-DBP-027 – Bewährte Methode für Persistenz
- ST-DBP-028 – Voraussetzung für Argumentenserialisierung
- ST-USG-005 – Hartcodierte Aktivitätsargumente
- ST-USG-009 – Nicht verwendete Variablen
- ST-USG-010 – Nicht verwendete Abhängigkeiten
- ST-USG-014 – Paketbeschränkungen
- ST-USG-017 – Ungültiger Parametermodifizierer
- ST-USG-020 – Minimale Protokollmeldungen
- ST-USG-024 – Nicht verwendet, gespeichert für später
- ST-USG-025 – Missbrauch gespeicherter Werte
- ST-USG-026 – Aktivitätseinschränkungen
- ST-USG-027 – Erforderliche Pakete
- ST-USG-028 – Aufruf von Dateivorlagen einschränken
- ST-USG-032 – Erforderliche Tags
- ST-USG-034 – Automation Hub-URL
- Variablen
- Argumente
- Importierte Namespaces
- Codierte Automatisierungen
- Einleitung
- Registrieren von benutzerdefinierten Diensten
- „Vor“- und „Nach“-Kontexte
- Generieren von Code
- Generieren eines codierten Testfalls aus manuellen Testfällen
- Integrieren von OpenAI in codierte Workflows
- Beantragen eines Kredits bei der UiBank
- Warteschlangengenerierung mit codierten Workflows und Orchestrator-APIs
- Verwenden importierter Bibliotheksprojekte in codierten Automatisierungen
- Verwenden der zweistufigen Authentifizierung in codierten Automatisierungen
- Triggerbasierte Attended-Automatisierung
- Objekt-Repository
- Das Tool ScreenScrapeJavaSupport
- Erweiterungen
- Über Erweiterungen
- SetupExtensions-Tool
- „UiPathRemoteRuntime.exe“ wird nicht in der Remotesitzung ausgeführt.
- UiPath Remote Runtime blockiert das Schließen der Citrix-Sitzung
- UiPath Remote Runtime verursacht Speicherverlust
- Versionen von UiPath.UIAutomation.Activities-Paket und UiPath Remote Runtime stimmen nicht überein
- Die erforderliche UiPath-Erweiterung ist auf der Remotemaschine nicht installiert
- Einstellungen für die Bildschirmauflösung
- Gruppenrichtlinien
- Kommunikation mit Browser nicht möglich
- Die Chrome-Erweiterung wird automatisch entfernt
- Möglicherweise ist die Erweiterung beschädigt
- Überprüfen Sie, ob die Erweiterung für Chrome installiert und aktiviert ist
- Überprüfen Sie, ob ChromeNativeMessaging.exe ausgeführt wird
- Überprüfen der korrekten Definition der ComSpec-Variablen
- Aktivieren Sie den Zugriff auf Datei-URLs und den Inkognito-Modus
- Mehrere Browser-Profile
- Group Policy conflict
- Spezifische bekannte Probleme für MV3-Erweiterungen
- Liste der Erweiterungen für Chrome
- Chrome-Erweiterung für Mac
- Gruppenrichtlinien
- Kommunikation mit Browser nicht möglich
- Die Edge-Erweiterung wird automatisch entfernt
- Möglicherweise ist die Erweiterung beschädigt
- Überprüfen, ob die Erweiterung für Microsoft Edge installiert und aktiviert ist
- Überprüfen Sie, ob ChromeNativeMessaging.exe ausgeführt wird
- Überprüfen der korrekten Definition der ComSpec-Variablen
- Aktivieren des Zugriffs auf Datei-URLs und den InPrivate-Modus
- Mehrere Browser-Profile
- Group Policy conflict
- Spezifische bekannte Probleme für MV3-Erweiterungen
- Liste der Erweiterungen für Edge
- Erweiterung für Safari
- Erweiterung für VMware Horizon
- Erweiterung für Amazon WorkSpaces
- SAP Solution Manager-Plugin
- Excel-Add-in
- Studio Testing
- Fehlersuche und ‑behebung
- Informationen zur Fehlerbehebung
- Fehler bei der Assembly-Kompilierung
- Microsoft App-V – Unterstützung und Einschränkungen
- Fehlerbehebung bei Internet Explorer x64
- Probleme in Microsoft Office
- Erkennen von UI-Elementen in PDF mit Zugriffsoptionen.
- Reparieren der Active Accessibility-Unterstützung
- Die Validierung großer Windows-Legacy-Projekte dauert länger als erwartet

Studio-Benutzerhandbuch
KI-generierte Testdaten
Sie können Testdaten generieren, die hochspezifisch für Ihre Testanforderungen sind, indem Sie die KI-gestützten Funktionen von AutopilotTM verwenden. Anfangs können Sie mit Autopilot bestimmte Anweisungen eingeben. Danach werden Argumente und Variablen generiert, die sowohl für die Anweisung als auch für den zugehörigen Testdatensatz relevant sind. Darüber hinaus können Sie Autopilot anweisen, neue Argumente für Ihren Testdatensatz zu generieren, die später Ihrem Testfall hinzugefügt werden.
Voraussetzungen
Damit Autopilot Testdaten generieren kann, muss Ihr Testfall Argumente der Typen enthalten, die wir derzeit unterstützen. Überprüfen Sie im Abschnitt Unterstützte Argumenttypen die Liste der Argumenttypen, die Sie in Ihre Testfälle aufnehmen können.
Unterstützte Argumenttypen
Die unterstützten Argumenttypen für KI-generierte Testdaten sind:
StringInt32,Int64DoubleDecimalBooleanCharByteSByteUInt16,UInt32,UInt64Single
Generieren von Testdaten für Testfälle
So erstellen Sie mit dem Autopilot Testdaten für einen Low-Code- oder codierten Testfall:
- Öffnen Sie den Test Explorer.
- Klicken Sie mit der rechten Maustaste auf den Testfall, für den Sie Testdaten generieren möchten, und wählen Sie Testdaten hinzufügen aus.
- Wählen Sie in der Dropdownliste Quelle die Option Mit Autopilot generieren aus.
- Geben Sie Anweisungen in das Feld Schreiben Sie Ihren Aufforderungstext auf ein, um eine erste Reihe von Testdaten zu generieren.
- Als optionalen Schritt können Sie die generierten Testdaten mit zusätzlichen Prompt-Anweisungen verbessern. Wenn angewiesen, fügt Autopilot mehr Argumente als die aktuellen hinzu. Die zusätzlichen Argumente werden dann dem Testfall hinzugefügt. Darüber hinaus können Sie Autopilot anweisen, eine bestimmte Anzahl von Datenvariationen zu generieren.
- Wenn Sie mit den generierten Testdaten zufrieden sind, wählen Sie Import aus, um die Daten in Ihren Testfall hinzuzufügen.
Abbildung 1. Dialogfeld beim Generieren von Testdaten mit dem Autopilot

Best Practices
Unter Generieren synthetischer Testdaten finden Sie weitere Empfehlungen zur effektiven Generierung KI-gesteuerter Testdaten. Die Best Practices enthalten folgende Tipps:
- So erstellen Sie Argumente für ein robustes Datenset.
- How to use instructions for your preferred data combination methods.
- So verwenden Sie Eingabeaufforderungen zum Anpassen Ihres Datasets.