automation-cloud
latest
false
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde. Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Automation Cloud-Administratorhandbuch

Letzte Aktualisierung 14. Mai 2025

Verwalten von AI Trust Layer

Überprüfung der Nutzungszusammenfassung

Die Registerkarte Nutzungszusammenfassung auf der Seite AI Trust Layer bietet einen Überblick über die Modellnutzung und Einschränkungen in verschiedenen Regionen. Sie stellt die historischen Daten aus Ihrem Prüfungsprotokoll dar und spiegelt die Einstellungen Ihrer Governance-Richtlinien wider.

Sie können angezeigte Daten nach folgenden Kriterien anzeigen:

  • Gesamt-LLM-Aktionen pro Status: Ermöglicht es Ihnen, den Status verschiedener Modelle in verschiedenen Regionen zu überwachen. Um die Datenvisualisierung anzupassen, können Sie nach Region, Modell, Status und Quelle filtern.
  • Gesamt-LLM-Aktionen pro Produkt: Ermöglicht Ihnen die Überwachung der Einführung von KI-Funktionen in Ihrer Organisation. Um die Datenvisualisierung anzupassen, können Sie nach Mandant und Produkt filtern.

Anzeigen von Überwachungsprotokollen

Die Registerkarte Prüfung auf der Seite AI Trust Layer bietet einen umfassenden Überblick über KI-bezogene Vorgänge, mit Details zu Anforderungen und Aktionen, den Produkten und Funktionen, die Anforderungen initiieren, sowie den verwendeten Modellen und deren Standort. Sie können alle KI-bezogenen Vorgänge überwachen und sicherstellen, dass sie Ihren festgelegten Richtlinien und Richtlinien entsprechen. Prüfungsprotokolle bieten auch Einblicke in die Eingaben und Ausgaben für Gen AI-Aktivitäten, Agenten, Autopilot for Everyone und generative Funktionen von Document Understanding. Beachten Sie, dass Sie Protokolleinträge anzeigen können, die in den letzten 60 Tagen erstellt wurden.

Die Prüfungsdaten werden als Tabelle angezeigt, wobei jede Spalte spezifische Informationen über die KI-bezogenen Vorgänge enthält:

  • Datum (UTC): Dieses zeigt das genaue Datum und die Uhrzeit an, zu der jeder Vorgang angefordert wurde. Es ermöglicht die genaue Nachverfolgung von Anforderungen in ihrer chronologischen Reihenfolge, was die zeitnahe Prüfung erleichtert.
  • Produkt: Das spezifische Produkt, das den jeweiligen Vorgang initiiert hat. Diese Transparenz ermöglicht es, jeden Vorgang bis zu seinem ursprünglichen Produkt zurückzuverfolgen, um ein besseres Verständnis und eine bessere Nachvollziehbarkeit zu erreichen.
  • Funktion: Die spezifische Produktfunktion, die den Vorgang ausgelöst hat, und erleichtert die Rückverfolgbarkeit von Problemen auf bestimmte Funktionen, falls ein Problem aufgetreten ist.
  • Mandant: Der spezifische Mandant innerhalb Ihrer Organisation, der den Vorgang initiiert hat. Dieser Einblick ermöglicht einen detaillierteren Überblick und hilft Muster oder Probleme auf Mandantenebene zu erkennen.
  • Benutzer: Der einzelne Benutzer innerhalb des Mandanten, der den Vorgang initiiert hat. Es ermöglicht die Nachverfolgung von Aktivitäten auf Benutzerebene im Einzelnen und verbessert die Übersichtsfunktionen. Bei GenAI-Aktivitäten wird der Benutzer durch die Person dargestellt, die die Verbindung erstellt hat. Ein Nicht zutreffend-Wert gibt eine Dienst-zu-Dienst-Kommunikation an, bei der ein Benutzer nicht verfügbar ist.
  • Verwendetes Modell: Das spezifische KI-Modell, das zur Verarbeitung jedes Vorgangs verwendet wird. Dieser Einblick bietet ein besseres Verständnis dafür, welche Modelle welche Arten von Anforderungen verarbeiten.
  • Modellspeicherort: Der Speicherort des verwendeten Modells. Diese Informationen können bei der Fehlerbehebung oder bei Prüfungsanforderungen hilfreich sein, die sich aus der Modellleistung an bestimmten Standorten ergeben können.
  • Status: Der Status jedes Vorgangs – er zeigt an, ob er erfolgreich, fehlgeschlagen oder blockiert war. Diese schnelle Möglichkeit, betriebliche Probleme zu identifizieren, ist entscheidend für die Aufrechterhaltung einer reibungslosen und effizienten Umgebung.

Darüber hinaus können Sie mit der Filterfunktion Ihre Prüfung basierend auf Kriterien wie Datum, Produkt, verwendetes Modell, Status oder Quelle eingrenzen. Mit dem Filter Quelle können Sie wählen, ob alle Aufrufe, nur von UiPath verwaltete Aufrufe oder ausschließlich benutzerdefinierte Verbindungsaufrufe (mit kundenseitig verwalteten Abonnements, wie unter Konfigurieren von LLMs definiert) angezeigt werden.

Wenn Sie einen Eintrag aus der Prüfungstabelle auswählen, können Sie außerdem auf den Abschnitt Details für eine detailliertere Überprüfung zugreifen, der alle in der Prüfungstabelle verfügbaren Daten sowie die LLM-Aufrufquelle und die genaue Bereitstellung enthält, die mit der Prüfungstabelle verbunden ist Anruf.

Exportieren von Prüfungsprotokollen

Mit der Option Exportieren können Sie Prüfungsprotokolle exportieren.

Protokolle exportieren

Auslösen und Herunterladen eines Exports

  1. Wechseln Sie zu „Administrator“ > „AI Trust Layer“ und wählen Sie die Registerkarte Prüfung aus.
  2. Wählen Sie Exportieren aus.
  3. Wählen Sie den Export mit oder ohne Eingaben und Ausgaben.

    Es kann jeweils nur ein Export verarbeitet werden. Sie müssen warten, bis der aktuelle Export abgeschlossen ist, bevor Sie einen neuen initiieren.

    Hinweis: Das System verarbeitet Exporte asynchron, wobei diejenigen mit Eingaben und Ausgaben zusätzliche Zeit benötigen.
  4. Nach Abschluss des Exports erhalten Sie Benachrichtigungen per E-Mail und im Benachrichtigungsbereich .
  5. Auf die exportierten Dateien kann für einen Zeitraum von sieben Tagen über die Option Exporte anzeigen auf der Registerkarte AI Trust Layer > Prüfung zugegriffen werden.

Die Benutzeroberfläche zeigt die Anzahl der verbleibenden Exporte mit Eingaben und Ausgaben für den aktuellen Monat an. Bitte beachten Sie, dass der Export mit Eingaben und Ausgaben bis zum nächsten Monat ausgesetzt wird, sobald Sie das monatliche Limit erreicht haben.

Filtern von Daten für Exporte

Verwenden Sie die verfügbaren Filteroptionen, um die Daten, die Sie exportieren möchten, einzugrenzen:

  • Produkt – Wählen Sie die Produkte aus, von denen Sie Daten exportieren möchten.

  • Verwendetes Modell – Wählen Sie bestimmte Modelle aus, um den Export zu filtern.

  • Status – Filtern Sie nach Anforderungen fehlgeschlagen oder erfolgreich. Der Status Fehlgeschlagen wird angezeigt, wenn eine Automation Ops-Richtlinie ein Modell, ein Produkt oder eine Funktion blockiert.

  • Datum – Wählen Sie einen Zeitbereich aus (z. B. Letzter Tag, Letzte Woche, Letzte 30 Tage) und wählen Sie zwischen lokalen oder UTC-Zeitzonen aus.

Durch Filtern können Sie die Größen- und Maximalzeilen pro Exportbeschränkungen umgehen, indem Sie nur die Daten auswählen, die Sie exportieren möchten.

Anzeigen von Exporten

Im Bereich Exporte anzeigen werden die exportierten Daten, der Benutzer, der die Anforderung generiert hat, und der Status des Exports angezeigt. In diesem Bereich können Sie auch Ihre Exporte herunterladen, indem Sie die Aktion Herunterladen auswählen.

Wenn ein Fehler auftritt, ist Ihr monatliches Exportlimit nicht betroffen und Sie können einen neuen Export generieren.

Tabelle 1. Exportstatus
StatusDefinition
AnstehendeDie Anforderung wird verarbeitet. Der Status wechselt zu Abgeschlossen oder Fehlgeschlagen, sobald die Verarbeitung abgeschlossen ist.
Fehlgeschlagen (Failed)Manchmal kann eine Anforderung fehlschlagen.

Eine fehlgeschlagene Anforderung zählt nicht zu Ihrem monatlichen Exportlimit, wenn Sie mit Eingaben und Ausgaben exportieren.

AbgeschlossenDie Verarbeitung ist abgeschlossen und die Datei steht zum Download bereit.
heruntergeladenDie Datei wurde heruntergeladen.
AbgelaufenDie Datei hat das Ende ihres 7-tägigen Verfügbarkeitsfensters erreicht und kann nicht mehr heruntergeladen werden.

CSV-Struktur

Prüfungsprotokolle bestehen aus den folgenden Spalten:

Tabelle 2. CSV-Struktur der Prüfungsprotokolle
SpaltennameTypBeschreibung
DatumDateTimeWann die Aktion registriert wurde.
Aktions-IDZeichenfolge/UUIDEin eindeutiger Bezeichner für die spezifische Aktion. Kann verwendet werden, um Informationen auf der UiPath-Plattform weiter nachzuverfolgen und mehr Einblicke zu erhalten.
ProduktStringName des Produkts, bei dem die Aktion stattgefunden hat.
FunktionenStringName der Funktion, die die Aktion ausgelöst hat.
BenutzerStringDer Benutzer, der die Aktion ausgelöst hat.
MandantStringDer Mandant, in dem die Aktion stattgefunden hat.
ModellStringDas Modell, das die Eingabe verarbeitet hat.
ModelllokalisierungStringDie Region des Modells.
StatusStringStatus für die Aktion, der fehlgeschlagen oder erfolgreich sein kann.

Exportbeschränkungen

Eingaben und Ausgaben, die länger als 32.767 Zeichen sind, werden am Ende abgeschnitten. Der abgeschnittenen Zeile wird automatisch eine Nachricht hinzugefügt, um Sie darüber zu informieren, dass die Informationen abgeschnitten wurden.

Eingaben und Ausgaben werden verarbeitet, um Kommas (",") zu entfernen, sodass Sie Informationen einfach und ohne CSV-Fehlfunktionen verarbeiten können.

Lizenzdauer und Übergangszeitraum

Während des Übergangszeitraums bleibt der Zugriff auf zuvor gespeicherte Daten erhalten. Während dieser Zeit werden jedoch keine neuen Daten im Warm- oder Kaltspeicher gespeichert. Es ist wichtig, zu beachten, dass die Daten im Kaltspeicher irgendwann ablaufen. Die Ablaufzeitspanne wird basierend auf Ihrer Lizenzdauer zuzüglich weiterer zwei oder drei Jahre berechnet, je nach Ihrem vorherigen Lizenztyp. Dieser Ansatz stellt sicher, dass Sie auch nach Ablauf Ihrer Lizenz noch genügend Zeit haben, auf Ihre historischen Daten zuzugreifen.

Datenaufbewahrung und -speicherung

Die Daten werden in der Mandantenregion gespeichert, die Sie beim Erstellen der Organisation und des Mandanten ausgewählt haben, und zwar gemäß den folgenden Regeln:
Tabelle 3. Exportbeschränkungen pro Lizenztyp
FunktionenEnterprise-StandardEnterprise Erweitert
Aktiver Speicher (UI sichtbar)60 Tage60 Tage
Warmer Speicher (Export verfügbar)90 Tage180 Tage
Kaltspeicher (archiviert)2 Jahre3 Jahre
Maximale Zeilen pro Export200.000200.000
Maximale Exportgröße1 GB1 GB
Exporte mit Eingaben und Ausgaben 4 pro Monat4 pro Monat
Exportiert ohne Eingaben und AusgabenUnbegrenztUnbegrenzt

Deaktivieren der Speicherung von Eingaben und Ausgaben

Sie können das Speichern von Eingaben und Ausgaben in Exporten deaktivieren, indem Sie eine Automation Ops-Richtlinie bereitstellen, die auf Mandanten-, Gruppen- oder Benutzerebene gilt. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien.

Sobald diese Funktion deaktiviert wird, werden die Eingaben und Ausgaben nicht mehr gespeichert und können nicht wiederhergestellt werden.

Wichtig: UiPath kann die Daten nicht wiederherstellen, wenn Sie sie nicht speichern. Bevor Sie diese Entscheidung treffen, stellen Sie sicher, dass die Richtlinien Ihres Unternehmens und die relevanten lokalen oder globalen Vorschriften eingehalten werden.

Umgang mit PII- und PHI-Daten in Prüfungsprotokollen

Wenn Sie die GenAI-Funktionen verwenden, müssen Sie sich bewusst sein, dass Ihre Prüfungsprotokolle persönlich identifizierbare Informationen (PII) und geschützte Gesundheitsinformationen (PHI) enthalten können. Diese Details können in Protokollen angezeigt werden, wenn Dokumente verarbeitet oder Eingabeaufforderungen durch Attended- und Unattended-Automatisierung verwaltet werden. Sie können die Eingabe- und Ausgabeaufforderungen im Abschnitt Details anzeigen, wenn Sie bestimmte Anforderungen überprüfen.

Die Informationen, die PII und PHI enthalten können, umfassen Benutzer- und Produktaufforderungen, die an LLM-Modelle gesendet werden, sowie die von diesen Modellen generierten Antworten.

Sie können die Herkunft der PII oder PHI in Ihren Protokollen nachverfolgen, indem Sie die Anforderungszeitstempel, den Eingabeinhalt und die zugehörigen Metadaten wie Aktions-ID, Mandant, Produkt, Funktion und Benutzer überprüfen.

Wenn Ihre Compliance-Regeln das Verbergen von PII- und PHI-Daten in Prüfungsprotokollen erfordern, können Sie dies tun, indem Sie den Mechanismus zum Speichern von Eingabe- und Ausgabeaufforderungen mithilfe der AI Trust Layer-Richtlinieneinstellungen deaktivieren. Führen Sie dazu die folgenden Schritte aus:

  1. Wechseln Sie zu Automation Ops™ > Governance und wählen Sie die AI Trust Layer-Richtlinie aus.

  2. Stellen Sie auf der Registerkarte Funktionsumschalter sicher, dass Sie das Speichern von Eingabeaufforderungen für Prüfung? auf Nein setzen.

    Hinweis:

    Mit dieser Konfiguration können Sie vertrauliche Inhalte aus Protokolleinträgen ausblenden, Compliance-Anforderungen einhalten und die Sichtbarkeit vertraulicher Daten steuern, während Sie gleichzeitig Prüfungsfunktionen erhalten. Beachten Sie jedoch, dass Sie die Prompts nach dem Ausblenden nicht mehr zur weiteren Verwendung zurückkehren können.

Verwalten von AI Trust Layer-Richtlinien

Auf der Registerkarte AI-Governance auf der Seite AI Trust Layer können Sie die Verwendung von KI-Modellen von Drittanbietern für Ihre Organisationen, Mandanten oder Benutzergruppen über AI Trust Layer-Richtlinien verwalten. Dies hilft Ihnen, den Benutzerzugriff auf die Funktionen der generativen KI zu steuern, und gewährleistet eine angemessene Governance in Ihrer Organisation.

Sie erhalten einen Überblick über alle aktiven Richtlinien und deren aktuellen Status. Darüber hinaus können Sie Richtlinien und deren Bereitstellungen wie folgt anzeigen und verwalten:

  • Wenn Sie den Richtliniennamen auswählen, werden Sie zur jeweiligen AI Trust Layer-Richtlinie in Automation Ops™ > Governance umgeleitet. Sie können nun die Richtliniendetails anzeigen und bei Bedarf Änderungen vornehmen. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien. Sie können eine AI Trust Layer-Richtlinie auch direkt erstellen, indem Sie Richtlinie hinzufügen auswählen.

  • Wenn Sie Bereitstellungen verwalten auswählen, werden Sie zu Automation Ops™ > Governance > Bereitstellung umgeleitet, wo Sie alle Ihre Richtlinienbereitstellungen überprüfen können. Weitere Informationen finden Sie unter Bereitstellen von Richtlinien auf Mandantenebene.

Verwalten von Autopilot for Everyone

Auf dieser Registerkarte von Autopilot for Everyone auf der Seite AI Trust Layer können Sie die Verwendung von Autopilot for Everyone in Ihrer Organisation verwalten.

Sie können die folgenden Aktionen ausführen:

Konfigurieren von LLMs

Auf der Registerkarte LLM-Konfigurationen können Sie Ihre vorhandenen KI-Abonnements integrieren und gleichzeitig den von UiPath bereitgestellten Governance-Framework beibehalten. Sie können:

  • Mitbringen Ihres eigenen Abonnements: Ersetzen Sie von UiPath verwaltete Abonnements durch Ihre eigenen, vorausgesetzt, sie entsprechen der gleichen Modellfamilie und Version, die bereits vom UiPath-Produkt unterstützt wird. Dies ermöglicht einen nahtlosen Wechsel von UiPath-verwalteten Modellen mit Ihren abonnierten Modellen.
  • Nutzen Sie Ihr eigenes LLM: Verwenden Sie ein beliebiges LLM, das die Kompatibilitätskriterien des Produkts erfüllt. Um eine reibungslose Integration sicherzustellen, muss das gewählte LLM eine Reihe von Tests bestehen, die durch einen Testaufruf initiiert werden, bevor es innerhalb des UiPath-Ökosystems verwendet werden kann.

Beim Konfigurieren von LLMs bleiben die meisten Governance-Vorteile des AI Trust Layer erhalten, einschließlich der Richtliniendurchsetzung über Automation Ops und detaillierte Prüfungsprotokolle. Modell-Governance-Richtlinien wurden jedoch speziell für von UiPath verwaltete LLMs entwickelt. Das bedeutet, dass, wenn Sie ein bestimmtes Modell über eine AI Trust Layer-Richtlinie deaktivieren, die Einschränkung nur für die von UiPath verwaltete Version dieses Modells gilt. Ihre eigenen konfigurierten Modelle desselben Typs bleiben davon nicht betroffen.

Wenn Sie die Option zur Verwendung Ihres eigenen LLM oder Abonnement nutzen, beachten Sie die folgenden Punkte:

  • Kompatibilitätsanforderungen: Das von Ihnen gewählte LLM oder Abonnement muss mit der Modellfamilie und Version übereinstimmen, die derzeit vom UiPath-Produkt unterstützt wird.
  • Einrichtung: Stellen Sie sicher, dass Sie alle erforderlichen LLMs im benutzerdefinierten Setup ordnungsgemäß konfigurieren und verwalten. Wenn eine Komponente fehlt, veraltet oder falsch konfiguriert ist, funktioniert Ihr benutzerdefiniertes Setup möglicherweise nicht mehr. In solchen Fällen kehrt das System automatisch zu einem von UiPath verwalteten LLM zurück, um die Kontinuität des Dienstes sicherzustellen.

  • Kostenersparnis: Wenn Ihre benutzerdefinierte LLM-Einrichtung vollständig und korrekt ist und alle erforderlichen Anforderungen erfüllt, haben Sie möglicherweise Anspruch auf eine reduzierte Verbrauchsrate.

Einrichten einer LLM-Verbindung

LLM-Verbindungen verwenden Integration Service, um die Verbindung zu Ihren eigenen Modellen herzustellen.

Sie können Verbindungen zu den folgenden Anbietern erstellen:

  • Azure Open AI
  • OpenAI
  • Amazon Bedrock
  • Google Vertex
  • Open AI V1-konformes LLM – Verwenden Sie diese Option, um eine Verbindung mit einem beliebigen LLM-Anbieter herzustellen, dessen API dem OpenAI V1-Standard folgt. Weitere Informationen finden Sie in der Dokumentation zum OpenAI V1-konformen LLM-Connector.

Führen Sie die folgenden Schritte aus, um eine neue Verbindung einzurichten:

  1. Erstellen Sie im Integration Service eine Verbindung mit dem Anbieter Ihrer Wahl.

    Connector-spezifische Authentifizierungsdetails finden Sie im Integration Service-Benutzerhandbuch.

    Hinweis: Erstellen Sie die Integration Service-Verbindung in einem privaten, nicht freigegebenen Ordner, um unautorisierten Zugriff zu verhindern.
  2. Navigieren Sie zu Administrator > AI Trust Layer > LLM-Konfigurationen.
  3. Wählen Sie den Mandanten aus, bei dem Sie die Verbindung konfigurieren möchten.
  4. Wählen Sie Konfiguration hinzufügen aus.
  5. Wählen Sie das Produkt aus.
  6. Wählen Sie den Konfigurationstyp aus: UiPath LLM-Abonnement ersetzen oder Eigenes LLM hinzufügen.

    Je nach ausgewähltem Produkt ist möglicherweise nur eine dieser Optionen verfügbar.

  7. Wenn Sie das UiPath-Abonnement ersetzen möchten, wählen Sie ein anderes LLM-Modell aus.
  8. Konfigurieren Sie im Abschnitt Konfigurieren einer kundenseitig verwalteten Verbindung die folgenden Felder:
    • Ordner – Wählen Sie den Ordner aus, zu dem die Verbindung gehört.
    • Connector – Wählen Sie den Connector und eine Verbindung aus. Wenn keine Verbindungen verfügbar sind, wählen Sie Neue Verbindung hinzufügen aus , um zum Integration Service umgeleitet zu werden.
    • Name des LLM-Bezeichners – Wählen Sie den Namen des LLM aus, den Sie verwenden möchten.
    • LLM-Alias – Geben Sie einen Alias für Ihr neues LLM an. Dieses Feld ist nur für den Konfigurationstyp Eigenes LLM hinzufügen verfügbar.
  9. Wählen Sie Test aus, um zu überprüfen, ob das Modell erreichbar ist und die erforderlichen Kriterien erfüllt.
    Wir können die Erreichbarkeit bestätigen, für die Überprüfung des genauen verwendeten Modells sind Sie dafür verantwortlich.
  10. Wenn der Test erfolgreich ist, wählen Sie Speichern aus, um die Verbindung zu aktivieren.

Verwalten vorhandener LLM-Verbindungen

Sie können die folgenden Aktionen für Ihre vorhandenen Verbindungen ausführen:

  • Verbindung überprüfen – Überprüft den Status Ihrer Integration Service-Verbindung. Diese Aktion stellt sicher, dass die Verbindung aktiv ist und ordnungsgemäß funktioniert.

  • Bearbeiten – Ändern Sie alle Parameter Ihrer vorhandenen Verbindung.

  • Deaktivieren – Setzen Sie die Verbindung vorübergehend aus. Wenn diese Option deaktiviert ist, bleibt die Verbindung in Ihrer Liste sichtbar, leitet jedoch keine Anrufe weiter. Sie können die Verbindung bei Bedarf wieder aktivieren.

  • Löschen – Entfernen Sie die Verbindung endgültig aus Ihrem System. Diese Aktion deaktiviert die Verbindung und entfernt sie aus Ihrer Liste.

Konfigurieren von LLMs für Agenten

Wenn Sie mit Agenten arbeiten, können Sie Ihr eigenes LLM mithilfe des OpenAI V1 Compliant-Connectors integrieren.

Führen Sie die im vorherigen Abschnitt beschriebenen Schritte aus, um eine Verbindung zu erstellen.

Stellen Sie beim Konfigurieren Ihrer Modellbereitstellung sicher, dass Ihr LLM die folgenden Funktionen unterstützt:

  • Tool-(Funktions-)Aufruf – Ihr Modell muss Tools oder Funktionen während der Ausführung aufrufen können.

  • Deaktivieren paralleler Toolaufrufe – Wenn dies von Ihrem LLM-Anbieter unterstützt wird, sollte das Modell die Möglichkeit bieten, parallele Toolaufrufe zu deaktivieren.

Steuern von kontextbezogenen Daten für GenAI-Funktionen

Die Erstellung von Indizes wird vom AI Trust Layer zum Orchestrator verlagert. Weitere Informationen finden Sie unter Indizes im Orchestrator.

Die Registerkarte „Kontextgrundlage “ im AI Trust Layer bleibt vorübergehend verfügbar. Der einzige Zweck besteht jetzt darin, Sie auf die neue Orchestrator-Indexerstellung umzuleiten. Die Registerkarte wird in einem bevorstehenden Update vollständig eingestellt.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White