- Erste Schritte
- Datensicherheit und Compliance
- Organisationen
- Authentifizierung und Sicherheit
- Grundlegendes zu Authentifizierungsmodellen
- Einrichten der Azure-AD-Integration
- Anforderungen an die Passwortkomplexität lokaler Benutzer
- Lizenzierung
- Über die Lizenzierung
- Einheitliche Preise: Lizenzierungsplan-Framework
- Flex: Lizenzierungsplan-Framework
- Aktivieren Ihrer Enterprise-Lizenz
- Upgrades und Downgrades von Lizenzen
- Zuweisen von Lizenzen zu Mandanten
- Zuweisen von Benutzerlizenzen
- Freigegeben von Benutzerlizenzen
- Überwachung der Lizenzzuweisung
- Lizenzüberzuweisung
- Lizenzierungsbenachrichtigungen
- Benutzerlizenzverwaltung
- Mandanten und Dienste
- Konten und Rollen
- AI Trust Layer
- Über AI Trust Layer
- Verwalten von AI Trust Layer
- Externe Anwendungen
- Benachrichtigungen
- Protokollierung
- Fehlersuche und ‑behebung
- Migration zur Automation Cloud

Automation Cloud-Administratorhandbuch
Verwalten von AI Trust Layer
Die Registerkarte Nutzungszusammenfassung auf der Seite AI Trust Layer bietet einen Überblick über die Modellnutzung und Einschränkungen in verschiedenen Regionen. Sie stellt die historischen Daten aus Ihrem Prüfungsprotokoll dar und spiegelt die Einstellungen Ihrer Governance-Richtlinien wider.
Sie können angezeigte Daten nach folgenden Kriterien anzeigen:
- Gesamt-LLM-Aktionen pro Status: Ermöglicht es Ihnen, den Status verschiedener Modelle in verschiedenen Regionen zu überwachen. Um die Datenvisualisierung anzupassen, können Sie nach Region, Modell, Status und Quelle filtern.
- Gesamt-LLM-Aktionen pro Produkt: Ermöglicht Ihnen die Überwachung der Einführung von KI-Funktionen in Ihrer Organisation. Um die Datenvisualisierung anzupassen, können Sie nach Mandant und Produkt filtern.
Die Registerkarte Prüfung auf der Seite AI Trust Layer bietet einen umfassenden Überblick über KI-bezogene Vorgänge, mit Details zu Anforderungen und Aktionen, den Produkten und Funktionen, die Anforderungen initiieren, sowie den verwendeten Modellen und deren Standort. Sie können alle KI-bezogenen Vorgänge überwachen und sicherstellen, dass sie Ihren festgelegten Richtlinien und Richtlinien entsprechen. Prüfungsprotokolle bieten auch Einblicke in die Eingaben und Ausgaben für Gen AI-Aktivitäten, Agenten, Autopilot for Everyone und generative Funktionen von Document Understanding. Beachten Sie, dass Sie Protokolleinträge anzeigen können, die in den letzten 60 Tagen erstellt wurden.
Die Prüfungsdaten werden als Tabelle angezeigt, wobei jede Spalte spezifische Informationen über die KI-bezogenen Vorgänge enthält:
- Datum (UTC): Dieses zeigt das genaue Datum und die Uhrzeit an, zu der jeder Vorgang angefordert wurde. Es ermöglicht die genaue Nachverfolgung von Anforderungen in ihrer chronologischen Reihenfolge, was die zeitnahe Prüfung erleichtert.
- Produkt: Das spezifische Produkt, das den jeweiligen Vorgang initiiert hat. Diese Transparenz ermöglicht es, jeden Vorgang bis zu seinem ursprünglichen Produkt zurückzuverfolgen, um ein besseres Verständnis und eine bessere Nachvollziehbarkeit zu erreichen.
- Funktion: Die spezifische Produktfunktion, die den Vorgang ausgelöst hat, und erleichtert die Rückverfolgbarkeit von Problemen auf bestimmte Funktionen, falls ein Problem aufgetreten ist.
- Mandant: Der spezifische Mandant innerhalb Ihrer Organisation, der den Vorgang initiiert hat. Dieser Einblick ermöglicht einen detaillierteren Überblick und hilft Muster oder Probleme auf Mandantenebene zu erkennen.
- Benutzer: Der einzelne Benutzer innerhalb des Mandanten, der den Vorgang initiiert hat. Es ermöglicht die Nachverfolgung von Aktivitäten auf Benutzerebene im Einzelnen und verbessert die Übersichtsfunktionen. Bei GenAI-Aktivitäten wird der Benutzer durch die Person dargestellt, die die Verbindung erstellt hat. Ein Nicht zutreffend-Wert gibt eine Dienst-zu-Dienst-Kommunikation an, bei der ein Benutzer nicht verfügbar ist.
- Verwendetes Modell: Das spezifische KI-Modell, das zur Verarbeitung jedes Vorgangs verwendet wird. Dieser Einblick bietet ein besseres Verständnis dafür, welche Modelle welche Arten von Anforderungen verarbeiten.
- Modellspeicherort: Der Speicherort des verwendeten Modells. Diese Informationen können bei der Fehlerbehebung oder bei Prüfungsanforderungen hilfreich sein, die sich aus der Modellleistung an bestimmten Standorten ergeben können.
- Status: Der Status jedes Vorgangs – er zeigt an, ob er erfolgreich, fehlgeschlagen oder blockiert war. Diese schnelle Möglichkeit, betriebliche Probleme zu identifizieren, ist entscheidend für die Aufrechterhaltung einer reibungslosen und effizienten Umgebung.
Darüber hinaus können Sie mit der Filterfunktion Ihre Prüfung basierend auf Kriterien wie Datum, Produkt, verwendetes Modell, Status oder Quelle eingrenzen. Mit dem Filter Quelle können Sie wählen, ob alle Aufrufe, nur von UiPath verwaltete Aufrufe oder ausschließlich benutzerdefinierte Verbindungsaufrufe (mit kundenseitig verwalteten Abonnements, wie unter Konfigurieren von LLMs definiert) angezeigt werden.
Wenn Sie einen Eintrag aus der Prüfungstabelle auswählen, können Sie außerdem auf den Abschnitt Details für eine detailliertere Überprüfung zugreifen, der alle in der Prüfungstabelle verfügbaren Daten sowie die LLM-Aufrufquelle und die genaue Bereitstellung enthält, die mit der Prüfungstabelle verbunden ist Anruf.
Mit der Option Exportieren können Sie Prüfungsprotokolle exportieren.
Protokolle exportieren
Auslösen und Herunterladen eines Exports
- Wechseln Sie zu „Administrator“ > „AI Trust Layer“ und wählen Sie die Registerkarte Prüfung aus.
- Wählen Sie Exportieren aus.
- Wählen Sie den Export mit oder ohne Eingaben und Ausgaben.
Es kann jeweils nur ein Export verarbeitet werden. Sie müssen warten, bis der aktuelle Export abgeschlossen ist, bevor Sie einen neuen initiieren.
Hinweis: Das System verarbeitet Exporte asynchron, wobei diejenigen mit Eingaben und Ausgaben zusätzliche Zeit benötigen. - Nach Abschluss des Exports erhalten Sie Benachrichtigungen per E-Mail und im Benachrichtigungsbereich .
- Auf die exportierten Dateien kann für einen Zeitraum von sieben Tagen über die Option Exporte anzeigen auf der Registerkarte AI Trust Layer > Prüfung zugegriffen werden.
Die Benutzeroberfläche zeigt die Anzahl der verbleibenden Exporte mit Eingaben und Ausgaben für den aktuellen Monat an. Bitte beachten Sie, dass der Export mit Eingaben und Ausgaben bis zum nächsten Monat ausgesetzt wird, sobald Sie das monatliche Limit erreicht haben.
Filtern von Daten für Exporte
Verwenden Sie die verfügbaren Filteroptionen, um die Daten, die Sie exportieren möchten, einzugrenzen:
-
Produkt – Wählen Sie die Produkte aus, von denen Sie Daten exportieren möchten.
-
Verwendetes Modell – Wählen Sie bestimmte Modelle aus, um den Export zu filtern.
-
Status – Filtern Sie nach Anforderungen fehlgeschlagen oder erfolgreich. Der Status Fehlgeschlagen wird angezeigt, wenn eine Automation Ops-Richtlinie ein Modell, ein Produkt oder eine Funktion blockiert.
-
Datum – Wählen Sie einen Zeitbereich aus (z. B. Letzter Tag, Letzte Woche, Letzte 30 Tage) und wählen Sie zwischen lokalen oder UTC-Zeitzonen aus.
Durch Filtern können Sie die Größen- und Maximalzeilen pro Exportbeschränkungen umgehen, indem Sie nur die Daten auswählen, die Sie exportieren möchten.
Anzeigen von Exporten
Im Bereich Exporte anzeigen werden die exportierten Daten, der Benutzer, der die Anforderung generiert hat, und der Status des Exports angezeigt. In diesem Bereich können Sie auch Ihre Exporte herunterladen, indem Sie die Aktion Herunterladen auswählen.
Wenn ein Fehler auftritt, ist Ihr monatliches Exportlimit nicht betroffen und Sie können einen neuen Export generieren.
Status | Definition |
---|---|
Anstehende | Die Anforderung wird verarbeitet. Der Status wechselt zu Abgeschlossen oder Fehlgeschlagen, sobald die Verarbeitung abgeschlossen ist. |
Fehlgeschlagen (Failed) | Manchmal kann eine Anforderung fehlschlagen.
Eine fehlgeschlagene Anforderung zählt nicht zu Ihrem monatlichen Exportlimit, wenn Sie mit Eingaben und Ausgaben exportieren. |
Abgeschlossen | Die Verarbeitung ist abgeschlossen und die Datei steht zum Download bereit. |
heruntergeladen | Die Datei wurde heruntergeladen. |
Abgelaufen | Die Datei hat das Ende ihres 7-tägigen Verfügbarkeitsfensters erreicht und kann nicht mehr heruntergeladen werden. |
CSV-Struktur
Prüfungsprotokolle bestehen aus den folgenden Spalten:
Spaltenname | Typ | Beschreibung |
---|---|---|
Datum | DateTime | Wann die Aktion registriert wurde. |
Aktions-ID | Zeichenfolge/UUID | Ein eindeutiger Bezeichner für die spezifische Aktion. Kann verwendet werden, um Informationen auf der UiPath-Plattform weiter nachzuverfolgen und mehr Einblicke zu erhalten. |
Produkt | String | Name des Produkts, bei dem die Aktion stattgefunden hat. |
Funktionen | String | Name der Funktion, die die Aktion ausgelöst hat. |
Benutzer | String | Der Benutzer, der die Aktion ausgelöst hat. |
Mandant | String | Der Mandant, in dem die Aktion stattgefunden hat. |
Modell | String | Das Modell, das die Eingabe verarbeitet hat. |
Modelllokalisierung | String | Die Region des Modells. |
Status | String | Status für die Aktion, der fehlgeschlagen oder erfolgreich sein kann. |
Exportbeschränkungen
Eingaben und Ausgaben, die länger als 32.767 Zeichen sind, werden am Ende abgeschnitten. Der abgeschnittenen Zeile wird automatisch eine Nachricht hinzugefügt, um Sie darüber zu informieren, dass die Informationen abgeschnitten wurden.
Eingaben und Ausgaben werden verarbeitet, um Kommas (",") zu entfernen, sodass Sie Informationen einfach und ohne CSV-Fehlfunktionen verarbeiten können.
Lizenzdauer und Übergangszeitraum
Während des Übergangszeitraums bleibt der Zugriff auf zuvor gespeicherte Daten erhalten. Während dieser Zeit werden jedoch keine neuen Daten im Warm- oder Kaltspeicher gespeichert. Es ist wichtig, zu beachten, dass die Daten im Kaltspeicher irgendwann ablaufen. Die Ablaufzeitspanne wird basierend auf Ihrer Lizenzdauer zuzüglich weiterer zwei oder drei Jahre berechnet, je nach Ihrem vorherigen Lizenztyp. Dieser Ansatz stellt sicher, dass Sie auch nach Ablauf Ihrer Lizenz noch genügend Zeit haben, auf Ihre historischen Daten zuzugreifen.
Datenaufbewahrung und -speicherung
Funktionen | Enterprise-Standard | Enterprise Erweitert |
---|---|---|
Aktiver Speicher (UI sichtbar) | 60 Tage | 60 Tage |
Warmer Speicher (Export verfügbar) | 90 Tage | 180 Tage |
Kaltspeicher (archiviert) | 2 Jahre | 3 Jahre |
Maximale Zeilen pro Export | 200.000 | 200.000 |
Maximale Exportgröße | 1 GB | 1 GB |
Exporte mit Eingaben und Ausgaben | 4 pro Monat | 4 pro Monat |
Exportiert ohne Eingaben und Ausgaben | Unbegrenzt | Unbegrenzt |
Deaktivieren der Speicherung von Eingaben und Ausgaben
Sie können das Speichern von Eingaben und Ausgaben in Exporten deaktivieren, indem Sie eine Automation Ops-Richtlinie bereitstellen, die auf Mandanten-, Gruppen- oder Benutzerebene gilt. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien.
Sobald diese Funktion deaktiviert wird, werden die Eingaben und Ausgaben nicht mehr gespeichert und können nicht wiederhergestellt werden.
Wenn Sie die GenAI-Funktionen verwenden, müssen Sie sich bewusst sein, dass Ihre Prüfungsprotokolle persönlich identifizierbare Informationen (PII) und geschützte Gesundheitsinformationen (PHI) enthalten können. Diese Details können in Protokollen angezeigt werden, wenn Dokumente verarbeitet oder Eingabeaufforderungen durch Attended- und Unattended-Automatisierung verwaltet werden. Sie können die Eingabe- und Ausgabeaufforderungen im Abschnitt Details anzeigen, wenn Sie bestimmte Anforderungen überprüfen.
Die Informationen, die PII und PHI enthalten können, umfassen Benutzer- und Produktaufforderungen, die an LLM-Modelle gesendet werden, sowie die von diesen Modellen generierten Antworten.
Sie können die Herkunft der PII oder PHI in Ihren Protokollen nachverfolgen, indem Sie die Anforderungszeitstempel, den Eingabeinhalt und die zugehörigen Metadaten wie Aktions-ID, Mandant, Produkt, Funktion und Benutzer überprüfen.
Wenn Ihre Compliance-Regeln das Verbergen von PII- und PHI-Daten in Prüfungsprotokollen erfordern, können Sie dies tun, indem Sie den Mechanismus zum Speichern von Eingabe- und Ausgabeaufforderungen mithilfe der AI Trust Layer-Richtlinieneinstellungen deaktivieren. Führen Sie dazu die folgenden Schritte aus:
-
Wechseln Sie zu Automation Ops™ > Governance und wählen Sie die AI Trust Layer-Richtlinie aus.
-
Stellen Sie auf der Registerkarte Funktionsumschalter sicher, dass Sie das Speichern von Eingabeaufforderungen für Prüfung? auf Nein setzen.
Hinweis:Mit dieser Konfiguration können Sie vertrauliche Inhalte aus Protokolleinträgen ausblenden, Compliance-Anforderungen einhalten und die Sichtbarkeit vertraulicher Daten steuern, während Sie gleichzeitig Prüfungsfunktionen erhalten. Beachten Sie jedoch, dass Sie die Prompts nach dem Ausblenden nicht mehr zur weiteren Verwendung zurückkehren können.
Auf der Registerkarte AI-Governance auf der Seite AI Trust Layer können Sie die Verwendung von KI-Modellen von Drittanbietern für Ihre Organisationen, Mandanten oder Benutzergruppen über AI Trust Layer-Richtlinien verwalten. Dies hilft Ihnen, den Benutzerzugriff auf die Funktionen der generativen KI zu steuern, und gewährleistet eine angemessene Governance in Ihrer Organisation.
Sie erhalten einen Überblick über alle aktiven Richtlinien und deren aktuellen Status. Darüber hinaus können Sie Richtlinien und deren Bereitstellungen wie folgt anzeigen und verwalten:
-
Wenn Sie den Richtliniennamen auswählen, werden Sie zur jeweiligen AI Trust Layer-Richtlinie in Automation Ops™ > Governance umgeleitet. Sie können nun die Richtliniendetails anzeigen und bei Bedarf Änderungen vornehmen. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien. Sie können eine AI Trust Layer-Richtlinie auch direkt erstellen, indem Sie Richtlinie hinzufügen auswählen.
-
Wenn Sie Bereitstellungen verwalten auswählen, werden Sie zu Automation Ops™ > Governance > Bereitstellung umgeleitet, wo Sie alle Ihre Richtlinienbereitstellungen überprüfen können. Weitere Informationen finden Sie unter Bereitstellen von Richtlinien auf Mandantenebene.
Auf dieser Registerkarte von Autopilot for Everyone auf der Seite AI Trust Layer können Sie die Verwendung von Autopilot for Everyone in Ihrer Organisation verwalten.
Sie können die folgenden Aktionen ausführen:
Auf der Registerkarte LLM-Konfigurationen können Sie Ihre vorhandenen KI-Abonnements integrieren und gleichzeitig den von UiPath bereitgestellten Governance-Framework beibehalten. Sie können:
- Mitbringen Ihres eigenen Abonnements: Ersetzen Sie von UiPath verwaltete Abonnements durch Ihre eigenen, vorausgesetzt, sie entsprechen der gleichen Modellfamilie und Version, die bereits vom UiPath-Produkt unterstützt wird. Dies ermöglicht einen nahtlosen Wechsel von UiPath-verwalteten Modellen mit Ihren abonnierten Modellen.
- Nutzen Sie Ihr eigenes LLM: Verwenden Sie ein beliebiges LLM, das die Kompatibilitätskriterien des Produkts erfüllt. Um eine reibungslose Integration sicherzustellen, muss das gewählte LLM eine Reihe von Tests bestehen, die durch einen Testaufruf initiiert werden, bevor es innerhalb des UiPath-Ökosystems verwendet werden kann.
Beim Konfigurieren von LLMs bleiben die meisten Governance-Vorteile des AI Trust Layer erhalten, einschließlich der Richtliniendurchsetzung über Automation Ops und detaillierte Prüfungsprotokolle. Modell-Governance-Richtlinien wurden jedoch speziell für von UiPath verwaltete LLMs entwickelt. Das bedeutet, dass, wenn Sie ein bestimmtes Modell über eine AI Trust Layer-Richtlinie deaktivieren, die Einschränkung nur für die von UiPath verwaltete Version dieses Modells gilt. Ihre eigenen konfigurierten Modelle desselben Typs bleiben davon nicht betroffen.
Wenn Sie die Option zur Verwendung Ihres eigenen LLM oder Abonnement nutzen, beachten Sie die folgenden Punkte:
- Kompatibilitätsanforderungen: Das von Ihnen gewählte LLM oder Abonnement muss mit der Modellfamilie und Version übereinstimmen, die derzeit vom UiPath-Produkt unterstützt wird.
-
Einrichtung: Stellen Sie sicher, dass Sie alle erforderlichen LLMs im benutzerdefinierten Setup ordnungsgemäß konfigurieren und verwalten. Wenn eine Komponente fehlt, veraltet oder falsch konfiguriert ist, funktioniert Ihr benutzerdefiniertes Setup möglicherweise nicht mehr. In solchen Fällen kehrt das System automatisch zu einem von UiPath verwalteten LLM zurück, um die Kontinuität des Dienstes sicherzustellen.
-
Kostenersparnis: Wenn Ihre benutzerdefinierte LLM-Einrichtung vollständig und korrekt ist und alle erforderlichen Anforderungen erfüllt, haben Sie möglicherweise Anspruch auf eine reduzierte Verbrauchsrate.
LLM-Verbindungen verwenden Integration Service, um die Verbindung zu Ihren eigenen Modellen herzustellen.
Sie können Verbindungen zu den folgenden Anbietern erstellen:
- Azure Open AI
- OpenAI
- Amazon Bedrock
- Google Vertex
- Open AI V1-konformes LLM – Verwenden Sie diese Option, um eine Verbindung mit einem beliebigen LLM-Anbieter herzustellen, dessen API dem OpenAI V1-Standard folgt. Weitere Informationen finden Sie in der Dokumentation zum OpenAI V1-konformen LLM-Connector.
Führen Sie die folgenden Schritte aus, um eine neue Verbindung einzurichten:
Sie können die folgenden Aktionen für Ihre vorhandenen Verbindungen ausführen:
-
Verbindung überprüfen – Überprüft den Status Ihrer Integration Service-Verbindung. Diese Aktion stellt sicher, dass die Verbindung aktiv ist und ordnungsgemäß funktioniert.
-
Bearbeiten – Ändern Sie alle Parameter Ihrer vorhandenen Verbindung.
-
Deaktivieren – Setzen Sie die Verbindung vorübergehend aus. Wenn diese Option deaktiviert ist, bleibt die Verbindung in Ihrer Liste sichtbar, leitet jedoch keine Anrufe weiter. Sie können die Verbindung bei Bedarf wieder aktivieren.
-
Löschen – Entfernen Sie die Verbindung endgültig aus Ihrem System. Diese Aktion deaktiviert die Verbindung und entfernt sie aus Ihrer Liste.
Wenn Sie mit Agenten arbeiten, können Sie Ihr eigenes LLM mithilfe des OpenAI V1 Compliant-Connectors integrieren.
Führen Sie die im vorherigen Abschnitt beschriebenen Schritte aus, um eine Verbindung zu erstellen.
Stellen Sie beim Konfigurieren Ihrer Modellbereitstellung sicher, dass Ihr LLM die folgenden Funktionen unterstützt:
-
Tool-(Funktions-)Aufruf – Ihr Modell muss Tools oder Funktionen während der Ausführung aufrufen können.
-
Deaktivieren paralleler Toolaufrufe – Wenn dies von Ihrem LLM-Anbieter unterstützt wird, sollte das Modell die Möglichkeit bieten, parallele Toolaufrufe zu deaktivieren.
Die Erstellung von Indizes wird vom AI Trust Layer zum Orchestrator verlagert. Weitere Informationen finden Sie unter Indizes im Orchestrator.
Die Registerkarte „Kontextgrundlage “ im AI Trust Layer bleibt vorübergehend verfügbar. Der einzige Zweck besteht jetzt darin, Sie auf die neue Orchestrator-Indexerstellung umzuleiten. Die Registerkarte wird in einem bevorstehenden Update vollständig eingestellt.
- Überprüfung der Nutzungszusammenfassung
- Anzeigen von Überwachungsprotokollen
- Exportieren von Prüfungsprotokollen
- Umgang mit PII- und PHI-Daten in Prüfungsprotokollen
- Verwalten von AI Trust Layer-Richtlinien
- Verwalten von Autopilot for Everyone
- Konfigurieren von LLMs
- Einrichten einer LLM-Verbindung
- Verwalten vorhandener LLM-Verbindungen
- Konfigurieren von LLMs für Agenten
- Steuern von kontextbezogenen Daten für GenAI-Funktionen