- Erste Schritte
- Datensicherheit und Compliance
- Organisationen
- Authentifizierung und Sicherheit
- Lizenzierung
- Aktivieren Ihrer Enterprise-Lizenz
- Upgrades und Downgrades von Lizenzen
- Anfordern einer Diensttestversion
- Zuweisen von Lizenzen zu Mandanten
- Zuweisen von Benutzerlizenzen
- Freigegeben von Benutzerlizenzen
- Überwachung der Lizenzzuweisung
- Lizenzüberzuweisung
- Lizenzierungsbenachrichtigungen
- Benutzerlizenzverwaltung
- Mandanten und Dienste
- Konten und Rollen
- AI Trust Layer
- Über AI Trust Layer
- Verwalten von AI Trust Layer
- Externe Anwendungen
- Benachrichtigungen
- Protokollierung
- Fehlersuche und ‑behebung
- Migrieren zur Automation Cloud™
Automation Cloud-Administratorhandbuch
Verwalten von AI Trust Layer
Auf der Registerkarte Einstellungen auf der Seite AI Trust Layer können Sie die Verwendung von KI-Modellen von Drittanbietern für Ihre Organisationen, Mandanten oder Benutzergruppen über AI Trust Layer-Richtlinien verwalten. Dies hilft Ihnen, den Benutzerzugriff auf die Funktionen der generativen KI zu steuern, und gewährleistet eine angemessene Governance in Ihrer Organisation.
Sie erhalten einen Überblick über alle aktiven Richtlinien und deren aktuellen Status. Darüber hinaus können Sie Richtlinien und deren Bereitstellungen wie folgt anzeigen und verwalten:
-
Wenn Sie den Richtliniennamen auswählen, werden Sie zur jeweiligen AI Trust Layer-Richtlinie in Automation Ops™ > Governance umgeleitet. Hier können Sie die Richtliniendetails einsehen und bei Bedarf Änderungen vornehmen. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien.
-
Wenn Sie Bereitstellungen verwalten auswählen, werden Sie zu Automation Ops™ > Governance > Bereitstellung umgeleitet, wo Sie alle Ihre Richtlinienbereitstellungen überprüfen können. Weitere Informationen finden Sie unter Bereitstellen von Richtlinien auf Mandantenebene.
Auf der Registerkarte Kontextgrundlage auf der Seite AI Trust Layer können Sie die Daten verwalten und steuern, die Sie als Kontext mit UiPath GenAI Funktionen verwenden. Weitere Informationen zur Kontexterstellung finden Sie unter Über die Kontexterstellung.
Sie können die Kontextgrundlage-Indizes überprüfen, die für bestimmte Mandanten verfügbar sind. Daten zur Indexdatenquelle, zum Aktualisierungszeitpunkt und zum Zeitpunkt der letzten Abfrage sind ebenfalls verfügbar.
Darüber hinaus können Sie die folgenden Vorgänge ausführen:
-
Fügen Sie einen neuen Index hinzu. Weitere Informationen finden Sie unter Hinzufügen eines neuen Indexes.
-
Zeigen Sie Details für die Indexattribute mithilfe der Aktionen Weitere anzeigen an -Menü aus.
-
Löschen Sie den Index endgültig, einschließlich aller Einbettungen und Datendarstellungen innerhalb des Indexes. Sie können den Index aus den Aktionen Weitere anzeigenlöschen -Menü aus.
Hinweis:Wenn GenAI-Aktivitäten oder Autopilot for Everyone einen Index verwenden, der gelöscht wird, müssen Sie sie mit einem neuen Index neu konfigurieren, sonst schlagen sie fehl.
-
Synchronisieren Sie den Index, um ihn mit den neuesten Daten aus der Datenquelle zu aktualisieren. Der Synchronisierungsvorgang überschreibt die Einbettungen und erfasst nur die Daten, die derzeit in der Datenquelle verfügbar sind. Sie können den Index über Weitere anzeigen- Aktionensynchronisieren -Menü aus.
Die Registerkarte Prüfung auf der Seite AI Trust Layer bietet einen umfassenden Überblick über KI-bezogene Vorgänge, mit Details zu Anforderungen und Aktionen, den Produkten und Funktionen, die Anforderungen initiieren, sowie den verwendeten Modellen und deren Standort. Sie können alle KI-bezogenen Vorgänge überwachen und sicherstellen, dass sie Ihren festgelegten Richtlinien und Richtlinien entsprechen. Beachten Sie, dass Sie Protokolleinträge anzeigen können, die in den letzten 60 Tagen erstellt wurden.
Die Prüfungsdaten werden als Tabelle angezeigt, wobei jede Spalte spezifische Informationen über die KI-bezogenen Vorgänge enthält:
-
Datum (UTC): Dieses zeigt das genaue Datum und die Uhrzeit an, zu der jeder Vorgang angefordert wurde. Es ermöglicht die genaue Nachverfolgung von Anforderungen in ihrer chronologischen Reihenfolge, was die zeitnahe Prüfung erleichtert.
-
Produkt: Das spezifische Produkt, das den jeweiligen Vorgang initiiert hat. Diese Transparenz ermöglicht es, jeden Vorgang bis zu seinem ursprünglichen Produkt zurückzuverfolgen, um ein besseres Verständnis und eine bessere Nachvollziehbarkeit zu erreichen.
-
Funktion: Die spezifische Produktfunktion, die den Vorgang ausgelöst hat, und erleichtert die Rückverfolgbarkeit von Problemen auf bestimmte Funktionen, falls ein Problem aufgetreten ist.
-
Mandant: Der spezifische Mandant innerhalb Ihrer Organisation, der den Vorgang initiiert hat. Dieser Einblick ermöglicht einen detaillierteren Überblick und hilft Muster oder Probleme auf Mandantenebene zu erkennen.
-
Benutzer: Der einzelne Benutzer innerhalb des Mandanten, der den Vorgang initiiert hat. Es ermöglicht die Nachverfolgung von Aktivitäten auf Benutzerebene im Einzelnen und verbessert die Übersichtsfunktionen.
-
Verwendetes Modell: Das spezifische KI-Modell, das zur Verarbeitung jedes Vorgangs verwendet wird. Dieser Einblick bietet ein besseres Verständnis dafür, welche Modelle welche Arten von Anforderungen verarbeiten.
-
Modellspeicherort: Der Speicherort des verwendeten Modells. Diese Informationen können bei der Fehlerbehebung oder bei Prüfungsanforderungen hilfreich sein, die sich aus der Modellleistung an bestimmten Standorten ergeben können.
-
Status: Der Status jedes Vorgangs – er zeigt an, ob er erfolgreich, fehlgeschlagen oder blockiert war. Diese schnelle Möglichkeit, betriebliche Probleme zu identifizieren, ist entscheidend für die Aufrechterhaltung einer reibungslosen und effizienten Umgebung.
Darüber hinaus können Sie mit der Filterfunktion Ihre Prüfung basierend auf Kriterien wie Datum, Produkt, verwendetes Modell oder Status einzugrenzen.
Wenn Sie außerdem einen Eintrag aus der Prüfungstabelle auswählen, können Sie auf den Abschnitt Details für eine detailliertere Überprüfung zugreifen.
Wenn Sie die GenAI-Funktionen verwenden, müssen Sie sich bewusst sein, dass Ihre Prüfungsprotokolle persönlich identifizierbare Informationen (PII) und geschützte Gesundheitsinformationen (PHI) enthalten können. Diese Details können in Protokollen angezeigt werden, wenn Dokumente verarbeitet oder Eingabeaufforderungen durch Attended- und Unattended-Automatisierung verwaltet werden. Sie können die Eingabe- und Ausgabeaufforderungen im Abschnitt Details anzeigen, wenn Sie bestimmte Anforderungen überprüfen.
Die Informationen, die PII und PHI enthalten können, umfassen Benutzer- und Produktaufforderungen, die an LLM-Modelle gesendet werden, sowie die von diesen Modellen generierten Antworten.
Sie können die Herkunft der PII oder PHI in Ihren Protokollen nachverfolgen, indem Sie die Anforderungszeitstempel, den Eingabeinhalt und die zugehörigen Metadaten wie Aktions-ID, Mandant, Produkt, Funktion und Benutzer überprüfen.
Wenn Ihre Compliance-Regeln das Verbergen von PII- und PHI-Daten in Prüfungsprotokollen erfordern, können Sie dies tun, indem Sie den Mechanismus zum Speichern von Eingabe- und Ausgabeaufforderungen mithilfe der AI Trust Layer-Richtlinieneinstellungen deaktivieren. Führen Sie dazu die folgenden Schritte aus:
-
Wechseln Sie zu Automation Ops™ > Governance und wählen Sie die AI Trust Layer-Richtlinie aus.
-
Stellen Sie auf der Registerkarte Funktionsumschalter sicher, dass Sie das Speichern von Eingabeaufforderungen für Prüfung? auf Nein setzen.
Hinweis:Mit dieser Konfiguration können Sie vertrauliche Inhalte aus Protokolleinträgen ausblenden, Compliance-Anforderungen einhalten und die Sichtbarkeit vertraulicher Daten steuern, während Sie gleichzeitig Prüfungsfunktionen erhalten. Beachten Sie jedoch, dass Sie die Prompts nach dem Ausblenden nicht mehr zur weiteren Verwendung zurückkehren können.
Die Registerkarte Nutzungszusammenfassung auf der Seite AI Trust Layer bietet einen Überblick über die Modellnutzung und Einschränkungen in verschiedenen Regionen. Sie stellt die historischen Daten aus Ihrem Prüfungsprotokoll dar und spiegelt die Einstellungen Ihrer Governance-Richtlinien wider.
Sie können angezeigte Daten nach folgenden Kriterien anzeigen:
-
Gesamt-LLM-Aktionen pro Status: Ermöglicht es Ihnen, den Status verschiedener Modelle in verschiedenen Regionen zu überwachen. Um die Datenvisualisierung anzupassen, können Sie nach Region, Modell und Status filtern.
-
Gesamt-LLM-Aktionen pro Produkt: Ermöglicht Ihnen die Überwachung der Einführung von KI-Funktionen in Ihrer Organisation. Um die Datenvisualisierung anzupassen, können Sie nach Mandant und Produkt filtern.
Auf dieser Registerkarte von Autopilot for Everyone auf der Seite AI Trust Layer können Sie die Verwendung von Autopilot for Everyone in Ihrer Organisation verwalten.
Sie können die folgenden Aktionen ausführen: