- Erste Schritte
- Datensicherheit und Compliance
- Organisationen
- Authentifizierung und Sicherheit
- Lizenzierung
- Aktivieren Ihrer Enterprise-Lizenz
- Upgrades und Downgrades von Lizenzen
- Anfordern einer Diensttestversion
- Zuweisen von Lizenzen zu Mandanten
- Zuweisen von Benutzerlizenzen
- Freigegeben von Benutzerlizenzen
- Überwachung der Lizenzzuweisung
- Lizenzüberzuweisung
- Lizenzierungsbenachrichtigungen
- Benutzerlizenzverwaltung
- Mandanten und Dienste
- Konten und Rollen
- AI Trust Layer
- Über AI Trust Layer
- Verwalten von AI Trust Layer
- Externe Anwendungen
- Benachrichtigungen
- Protokollierung
- Fehlersuche und ‑behebung
- Migrieren zur Automation Cloud™
Verwalten von AI Trust Layer
Auf der Registerkarte Einstellungen auf der Seite AI Trust Layer können Sie die Verwendung von KI-Modellen von Drittanbietern für Ihre Organisationen, Mandanten oder Benutzergruppen über AI Trust Layer-Richtlinien verwalten. Dies hilft Ihnen, den Benutzerzugriff auf die Funktionen der generativen KI zu steuern, und gewährleistet eine angemessene Governance in Ihrer Organisation.
Sie erhalten einen Überblick über alle aktiven Richtlinien und deren aktuellen Status. Darüber hinaus können Sie Richtlinien und deren Bereitstellungen wie folgt anzeigen und verwalten:
-
Wenn Sie den Richtliniennamen auswählen, werden Sie zur jeweiligen AI Trust Layer-Richtlinie in Automation Ops™ > Governance umgeleitet. Hier können Sie die Richtliniendetails einsehen und bei Bedarf Änderungen vornehmen. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien.
-
Wenn Sie Bereitstellungen verwalten auswählen, werden Sie zu Automation Ops™ > Governance > Bereitstellung umgeleitet, wo Sie alle Ihre Richtlinienbereitstellungen überprüfen können. Weitere Informationen finden Sie unter Bereitstellen von Richtlinien auf Mandantenebene.
The Context Grounding tab on the AI Trust Layer page allows you to manage and govern the data you use as context with UiPath® GenAI features. For more details about context grounding, see About Context Grounding.
You can check the Context Grounding indexes available across specific tenants. Data about the index data source, update time, and last query time is also available.
Moreover, you can perform the following operations:
-
Fügen Sie einen neuen Index hinzu. Weitere Informationen finden Sie unter Hinzufügen eines neuen Indexes.
-
View details for the index attributes, using the See more actions menu.
-
Permanently delete the index, including all embeddings and data representation within the index. You can delete the index form the See more actions menu.
Hinweis:Wenn GenAI-Aktivitäten oder Autopilot for Everyone einen Index verwenden, der gelöscht wird, müssen Sie sie mit einem neuen Index neu konfigurieren, sonst schlagen sie fehl.
-
Sync the index to update it with the most recent data from the data source. The sync operation overwrites the embeddings and captures only the data currently available in the data source. You can sync the index from the See more actions menu.
Die Registerkarte Prüfung auf der Seite AI Trust Layer bietet einen umfassenden Überblick über KI-bezogene Vorgänge, mit Details zu Anforderungen und Aktionen, den Produkten und Funktionen, die Anforderungen initiieren, sowie den verwendeten Modellen und deren Standort. Sie können alle KI-bezogenen Vorgänge überwachen und sicherstellen, dass sie Ihren festgelegten Richtlinien und Richtlinien entsprechen. Beachten Sie, dass Sie Protokolleinträge anzeigen können, die in den letzten 60 Tagen erstellt wurden.
Die Prüfungsdaten werden als Tabelle angezeigt, wobei jede Spalte spezifische Informationen über die KI-bezogenen Vorgänge enthält:
-
Datum (UTC): Dieses zeigt das genaue Datum und die Uhrzeit an, zu der jeder Vorgang angefordert wurde. Es ermöglicht die genaue Nachverfolgung von Anforderungen in ihrer chronologischen Reihenfolge, was die zeitnahe Prüfung erleichtert.
-
Produkt: Das spezifische Produkt, das den jeweiligen Vorgang initiiert hat. Diese Transparenz ermöglicht es, jeden Vorgang bis zu seinem ursprünglichen Produkt zurückzuverfolgen, um ein besseres Verständnis und eine bessere Nachvollziehbarkeit zu erreichen.
-
Funktion: Die spezifische Produktfunktion, die den Vorgang ausgelöst hat, und erleichtert die Rückverfolgbarkeit von Problemen auf bestimmte Funktionen, falls ein Problem aufgetreten ist.
-
Mandant: Der spezifische Mandant innerhalb Ihrer Organisation, der den Vorgang initiiert hat. Dieser Einblick ermöglicht einen detaillierteren Überblick und hilft Muster oder Probleme auf Mandantenebene zu erkennen.
-
Benutzer: Der einzelne Benutzer innerhalb des Mandanten, der den Vorgang initiiert hat. Es ermöglicht die Nachverfolgung von Aktivitäten auf Benutzerebene im Einzelnen und verbessert die Übersichtsfunktionen.
-
Verwendetes Modell: Das spezifische KI-Modell, das zur Verarbeitung jedes Vorgangs verwendet wird. Dieser Einblick bietet ein besseres Verständnis dafür, welche Modelle welche Arten von Anforderungen verarbeiten.
-
Modellspeicherort: Der Speicherort des verwendeten Modells. Diese Informationen können bei der Fehlerbehebung oder bei Prüfungsanforderungen hilfreich sein, die sich aus der Modellleistung an bestimmten Standorten ergeben können.
-
Status: Der Status jedes Vorgangs – er zeigt an, ob er erfolgreich, fehlgeschlagen oder blockiert war. Diese schnelle Möglichkeit, betriebliche Probleme zu identifizieren, ist entscheidend für die Aufrechterhaltung einer reibungslosen und effizienten Umgebung.
Darüber hinaus können Sie mit der Filterfunktion Ihre Prüfung basierend auf Kriterien wie Datum, Produkt, verwendetes Modell oder Status einzugrenzen.
Furthermore, when you select an entry from the Audit table, you can access a Details section for a more in-depth review.
Die Registerkarte Nutzungszusammenfassung auf der Seite AI Trust Layer bietet einen Überblick über die Modellnutzung und Einschränkungen in verschiedenen Regionen. Sie stellt die historischen Daten aus Ihrem Prüfungsprotokoll dar und spiegelt die Einstellungen Ihrer Governance-Richtlinien wider.
Sie können angezeigte Daten nach folgenden Kriterien anzeigen:
-
Gesamt-LLM-Aktionen pro Status: Ermöglicht es Ihnen, den Status verschiedener Modelle in verschiedenen Regionen zu überwachen. Um die Datenvisualisierung anzupassen, können Sie nach Region, Modell und Status filtern.
-
Gesamt-LLM-Aktionen pro Produkt: Ermöglicht Ihnen die Überwachung der Einführung von KI-Funktionen in Ihrer Organisation. Um die Datenvisualisierung anzupassen, können Sie nach Mandant und Produkt filtern.
Auf dieser Registerkarte von Autopilot for Everyone auf der Seite AI Trust Layer können Sie die Verwendung von Autopilot for Everyone in Ihrer Organisation verwalten.
Sie können die folgenden Aktionen ausführen: