- Erste Schritte
- Datensicherheit und Compliance
- Organisationen
- Authentifizierung und Sicherheit
- Grundlegendes zu Authentifizierungsmodellen
- Konfigurieren der Microsoft Entra ID-Integration
- Anforderungen an die Passwortkomplexität lokaler Benutzer
- Lizenzierung
- Über die Lizenzierung
- Einheitliche Preise: Lizenzierungsplan-Framework
- Flex: Lizenzierungsplan-Framework
- Aktivieren Ihrer Enterprise-Lizenz
- Upgrades und Downgrades von Lizenzen
- Anfordern einer Diensttestversion
- Zuweisen von Lizenzen zu Mandanten
- Zuweisen von Benutzerlizenzen
- Freigegeben von Benutzerlizenzen
- Überwachung der Lizenzzuweisung
- Lizenzüberzuweisung
- Lizenzierungsbenachrichtigungen
- Benutzerlizenzverwaltung
- Mandanten und Dienste
- Konten und Rollen
- Tests in Ihrer Organisation
- AI Trust Layer
- Über AI Trust Layer
- Verwalten von AI Trust Layer
- Externe Anwendungen
- Benachrichtigungen
- Protokollierung
- Fehlersuche und ‑behebung
- Migration zur Automation Cloud

Automation Cloud-Administratorhandbuch
Die Registerkarte Nutzungszusammenfassung auf der Seite AI Trust Layer bietet einen Überblick über die Modellnutzung und Einschränkungen in verschiedenen Regionen. Sie stellt die historischen Daten aus Ihrem Prüfungsprotokoll dar und spiegelt die Einstellungen Ihrer Governance-Richtlinien wider.
Sie können angezeigte Daten nach folgenden Kriterien anzeigen:
- Gesamt-LLM-Aktionen pro Status: Ermöglicht es Ihnen, den Status verschiedener Modelle in verschiedenen Regionen zu überwachen. Um die Datenvisualisierung anzupassen, können Sie nach Region, Modell, Status und Quelle filtern.
- Gesamt-LLM-Aktionen pro Produkt: Ermöglicht Ihnen die Überwachung der Einführung von KI-Funktionen in Ihrer Organisation. Um die Datenvisualisierung anzupassen, können Sie nach Mandant und Produkt filtern.
Die Registerkarte Prüfung auf der Seite AI Trust Layer bietet einen umfassenden Überblick über KI-bezogene Vorgänge, mit Details zu Anforderungen und Aktionen, den Produkten und Funktionen, die Anforderungen initiieren, sowie den verwendeten Modellen und deren Standort. Sie können alle KI-bezogenen Vorgänge überwachen und sicherstellen, dass sie Ihren festgelegten Richtlinien und Richtlinien entsprechen. Prüfungsprotokolle bieten auch Einblicke in die Eingaben und Ausgaben für Gen AI-Aktivitäten, Agenten, Autopilot for Everyone und generative Funktionen von Document Understanding. Beachten Sie, dass Sie Protokolleinträge anzeigen können, die in den letzten 60 Tagen erstellt wurden.
Die Prüfungsdaten werden als Tabelle angezeigt, wobei jede Spalte spezifische Informationen über die KI-bezogenen Vorgänge enthält:
- Datum (UTC): Dieses zeigt das genaue Datum und die Uhrzeit an, zu der jeder Vorgang angefordert wurde. Es ermöglicht die genaue Nachverfolgung von Anforderungen in ihrer chronologischen Reihenfolge, was die zeitnahe Prüfung erleichtert.
- Produkt: Das spezifische Produkt, das den jeweiligen Vorgang initiiert hat. Diese Transparenz ermöglicht es, jeden Vorgang bis zu seinem ursprünglichen Produkt zurückzuverfolgen, um ein besseres Verständnis und eine bessere Nachvollziehbarkeit zu erreichen.
- Funktion: Die spezifische Produktfunktion, die den Vorgang ausgelöst hat, und erleichtert die Rückverfolgbarkeit von Problemen auf bestimmte Funktionen, falls ein Problem aufgetreten ist.
- Mandant: Der spezifische Mandant innerhalb Ihrer Organisation, der den Vorgang initiiert hat. Dieser Einblick ermöglicht einen detaillierteren Überblick und hilft Muster oder Probleme auf Mandantenebene zu erkennen.
- Benutzer: Der einzelne Benutzer innerhalb des Mandanten, der den Vorgang initiiert hat. Es ermöglicht die Nachverfolgung von Aktivitäten auf Benutzerebene im Einzelnen und verbessert die Übersichtsfunktionen. Bei GenAI-Aktivitäten wird der Benutzer durch die Person dargestellt, die die Verbindung erstellt hat. Ein Nicht zutreffend-Wert gibt eine Dienst-zu-Dienst-Kommunikation an, bei der ein Benutzer nicht verfügbar ist.
- Verwendetes Modell: Das spezifische KI-Modell, das zur Verarbeitung jedes Vorgangs verwendet wird. Dieser Einblick bietet ein besseres Verständnis dafür, welche Modelle welche Arten von Anforderungen verarbeiten.
- Modellspeicherort: Der Speicherort des verwendeten Modells. Diese Informationen können bei der Fehlerbehebung oder bei Prüfungsanforderungen hilfreich sein, die sich aus der Modellleistung an bestimmten Standorten ergeben können.
- Status: Der Status jedes Vorgangs – er zeigt an, ob er erfolgreich, fehlgeschlagen oder blockiert war. Diese schnelle Möglichkeit, betriebliche Probleme zu identifizieren, ist entscheidend für die Aufrechterhaltung einer reibungslosen und effizienten Umgebung.
Darüber hinaus können Sie mit der Filterfunktion Ihre Prüfung basierend auf Kriterien wie Datum, Produkt, verwendetes Modell, Status oder Quelle eingrenzen. Mit dem Filter Quelle können Sie wählen, ob alle Aufrufe, nur von UiPath verwaltete Aufrufe oder ausschließlich benutzerdefinierte Verbindungsaufrufe (mit kundenseitig verwalteten Abonnements, wie unter Konfigurieren von LLMs definiert) angezeigt werden.
Wenn Sie einen Eintrag aus der Prüfungstabelle auswählen, können Sie außerdem auf den Abschnitt Details für eine detailliertere Überprüfung zugreifen, der alle in der Prüfungstabelle verfügbaren Daten sowie die LLM-Aufrufquelle und die genaue Bereitstellung enthält, die mit der Prüfungstabelle verbunden ist Anruf.
Exportieren von Prüfungsprotokollen
Diese Funktion ist im Enterprise-Lizenzierungsplan verfügbar.
Mit der Option Exportieren können Sie Prüfungsprotokolle exportieren.
Protokolle exportieren
Auslösen und Herunterladen eines Exports
- Wechseln Sie zu „Administrator“ > „AI Trust Layer“ und wählen Sie die Registerkarte Prüfung aus.
- Wählen Sie Exportieren aus.
- Wählen Sie aus, ob Sie mit oder ohne Eingaben und Ausgaben exportieren möchten. Es kann jeweils nur ein Export verarbeitet werden. Sie müssen warten, bis der aktuelle Export abgeschlossen ist, bevor Sie einen neuen starten.
Hinweis: Das System verarbeitet Exporte asynchron, wobei diejenigen mit Eingaben und Ausgaben zusätzliche Zeit benötigen.
- Nach Abschluss des Exports erhalten Sie Benachrichtigungen per E-Mail und im Benachrichtigungsbereich .
- Auf die exportierten Dateien kann für einen Zeitraum von sieben Tagen über die Option Exporte anzeigen auf der Registerkarte AI Trust Layer > Prüfung zugegriffen werden.
Die Benutzeroberfläche zeigt die Anzahl der verbleibenden Exporte mit Eingaben und Ausgaben für den aktuellen Monat an. Bitte beachten Sie, dass der Export mit Eingaben und Ausgaben bis zum nächsten Monat ausgesetzt wird, sobald Sie das monatliche Limit erreicht haben.
Filtern von Daten für Exporte
Verwenden Sie die verfügbaren Filteroptionen, um die Daten, die Sie exportieren möchten, einzugrenzen:
- Produkt – Wählen Sie die Produkte aus, von denen Sie Daten exportieren möchten.
- Verwendetes Modell – Wählen Sie bestimmte Modelle aus, um den Export zu filtern.
- Status – Filtern Sie nach Anforderungen fehlgeschlagen oder erfolgreich. Der Status Fehlgeschlagen wird angezeigt, wenn eine Automation Ops-Richtlinie ein Modell, ein Produkt oder eine Funktion blockiert.
- Datum – Wählen Sie einen Zeitbereich aus (z. B. Letzter Tag, Letzte Woche, Letzte 30 Tage) und wählen Sie zwischen lokalen oder UTC-Zeitzonen aus.
Durch Filtern können Sie die Größen- und Maximalzeilen pro Exportbeschränkungen umgehen, indem Sie nur die Daten auswählen, die Sie exportieren möchten.
Anzeigen von Exporten
Im Bereich Exporte anzeigen werden die exportierten Daten, der Benutzer, der die Anforderung generiert hat, und der Status des Exports angezeigt. In diesem Bereich können Sie auch Ihre Exporte herunterladen, indem Sie die Aktion Herunterladen auswählen.
Wenn ein Fehler auftritt, ist Ihr monatliches Exportlimit nicht betroffen und Sie können einen neuen Export generieren.
| Status | Definition |
|---|---|
| Anstehende | Die Anforderung wird verarbeitet. Der Status wechselt zu Abgeschlossen oder Fehlgeschlagen, sobald die Verarbeitung abgeschlossen ist. |
| Fehlgeschlagen (Failed) | Manchmal kann eine Anforderung fehlschlagen.
Eine fehlgeschlagene Anforderung zählt nicht zu Ihrem monatlichen Exportlimit, wenn Sie mit Eingaben und Ausgaben exportieren. |
| Abgeschlossen | Die Verarbeitung ist abgeschlossen und die Datei steht zum Download bereit. |
| heruntergeladen | Die Datei wurde heruntergeladen. |
| Abgelaufen | Die Datei hat das Ende ihres 7-tägigen Verfügbarkeitsfensters erreicht und kann nicht mehr heruntergeladen werden. |
CSV-Struktur
Prüfungsprotokolle bestehen aus den folgenden Spalten:
| Spaltenname | Typ | Beschreibung |
|---|---|---|
| Datum | DateTime | Wann die Aktion registriert wurde. |
| Aktions-ID | Zeichenfolge/UUID | Ein eindeutiger Bezeichner für die spezifische Aktion. Kann verwendet werden, um Informationen auf der UiPath-Plattform weiter nachzuverfolgen und mehr Einblicke zu erhalten. |
| Produkt | String | Name des Produkts, bei dem die Aktion stattgefunden hat. |
| Funktionen | String | Name der Funktion, die die Aktion ausgelöst hat. |
| Benutzer | String | Der Benutzer, der die Aktion ausgelöst hat. |
| Mandant | String | Der Mandant, in dem die Aktion stattgefunden hat. |
| Modell | String | Das Modell, das die Eingabe verarbeitet hat. |
| Modelllokalisierung | String | Die Region des Modells. |
| Status | String | Status für die Aktion, der fehlgeschlagen oder erfolgreich sein kann. |
Exportbeschränkungen
Eingaben und Ausgaben, die länger als 32.767 Zeichen sind, werden am Ende abgeschnitten. Der abgeschnittenen Zeile wird automatisch eine Nachricht hinzugefügt, um Sie darüber zu informieren, dass die Informationen abgeschnitten wurden.
Eingaben und Ausgaben werden verarbeitet, um Kommas (",") zu entfernen, sodass Sie Informationen einfach und ohne CSV-Fehlfunktionen verarbeiten können.
Lizenzdauer und Übergangszeitraum
Während des Übergangszeitraums bleibt der Zugriff auf zuvor gespeicherte Daten erhalten. Während dieser Zeit werden jedoch keine neuen Daten im Warm- oder Kaltspeicher gespeichert. Es ist wichtig, zu beachten, dass die Daten im Kaltspeicher irgendwann ablaufen. Die Ablaufzeitspanne wird basierend auf Ihrer Lizenzdauer zuzüglich weiterer zwei oder drei Jahre berechnet, je nach Ihrem vorherigen Lizenztyp. Dieser Ansatz stellt sicher, dass Sie auch nach Ablauf Ihrer Lizenz noch genügend Zeit haben, auf Ihre historischen Daten zuzugreifen.
Datenaufbewahrung und -speicherung
| Funktionen | Enterprise-Standard | Enterprise Erweitert |
|---|---|---|
| Aktiver Speicher (UI sichtbar) | 60 Tage | 60 Tage |
| Warmer Speicher (Export verfügbar) | 90 Tage | 180 Tage |
| Kaltspeicher (archiviert) | 2 Jahre | 3 Jahre |
| Maximale Zeilen pro Export | 200.000 | 200.000 |
| Maximale Exportgröße | 1 GB | 1 GB |
| Exporte mit Eingaben und Ausgaben | 4 pro Monat | 4 pro Monat |
| Exportiert ohne Eingaben und Ausgaben | Unbegrenzt | Unbegrenzt |
Deaktivieren der Speicherung von Eingaben und Ausgaben
Sie können das Speichern von Eingaben und Ausgaben in Exporten deaktivieren, indem Sie eine Automation Ops-Richtlinie bereitstellen, die auf Mandanten-, Gruppen- oder Benutzerebene gilt. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien.
Sobald diese Funktion deaktiviert wird, werden die Eingaben und Ausgaben nicht mehr gespeichert und können nicht wiederhergestellt werden.
Umgang mit PII- und PHI-Daten in Prüfungsprotokollen
Bei der Verwendung von GenAI-Funktionen in UiPath ist es wichtig zu verstehen, dass Prüfungsprotokolle personenbezogene Daten (PII) oder geschützte Gesundheitsdaten (PHI) enthalten können. Diese Details können sowohl in den Eingabeaufforderungen angezeigt werden, die an Large Language Models (LLMs) gesendet werden, als auch in den Antworten, die sie generieren. Dies gilt für Interaktionen, die über Attended- und Unattended-Automatisierungen ausgeführt werden.
Im Abschnitt Details eines jeden Prüfprotokolleintrags wird der vollständige Inhalt der Eingabe und Ausgabe angezeigt, wenn das Speichern von Prompts aktiviert ist. Dazu gehören Metadaten wie:
- Aktions-ID
- Mandant
- Produkt
- Funktionen
- Benutzer
- Zeitstempel
Verbergen von sensiblen Daten zur Compliance
Wenn Ihre Compliance-Regeln es erfordern, dass PII- und PHI-Daten in Prüfungsprotokollen ausgeblendet werden, können Sie die AI Trust Layer-Richtlinie konfigurieren, um die Sichtbarkeit zu steuern:
- Gehen Sie zu Automation Ops™ > Governance und wählen oder erstellen Sie eine AI Trust Layer-Richtlinie.
- Stellen Sie auf der Registerkarte Funktionsumschalter sicher, dass Sie die Option Speichern von Eingabeaufforderungen für Prüfung aktivieren? auf Nein.
Mit dieser Einstellung werden weder Prompts noch LLM-Ausgaben in den Prüfungsprotokollen gespeichert. Im Protokoll werden die Eintragsmetadaten angezeigt, aber der Ein-/Ausgabeinhalt wird als „Durch Richtlinie blockiert“ angezeigt.
Mit dieser Konfiguration können Sie vertrauliche Inhalte aus Protokolleinträgen ausblenden, Compliance-Anforderungen einhalten und die Sichtbarkeit vertraulicher Daten steuern, während Prüfungsfunktionen erhalten bleiben. Einmal ausgeblendet, können Sie die Prompts nicht zur weiteren Verwendung wiederherstellen.
Anzeigen von PII-Protokollen
Redaktionieren von PII und PHI
Sie können Prüfungsprotokolle beibehalten und gleichzeitig vertrauliche Inhalte maskieren, indem Sie die Option PII-Maskierung aktivieren. Weitere Informationen dazu finden Sie unter PII-Maskierung.
Das AI Trust Layer Audit Log bietet vollständigen Einblick in die Art und Weise, wie persönlich identifizierbare Informationen (PII) bei Interaktionen mit Large Language Models (LLMs) verarbeitet werden.
Mit dem Prüfungsprotokoll können Sie:
- Überprüfen Sie, ob PII in einem bestimmten Prompt erkannt wurden.
- Bestätigen Sie, ob die Maskierung (Pseudononyme) auf die erkannten Entitäten angewendet wurde.
- Überprüfen Sie die tatsächliche Eingabe, die an das LLM gesendet wurde, und stellen Sie sicher, dass keine unformatierten PII offengelegt wurden.
Diese Stufe der Transparenz unterstützt die Compliance-Bemühungen, schafft Vertrauen bei den Beteiligten und bietet einen detaillierten Prüfungspfad für jede Interaktion, bei der PII-Maskierung während der Übertragung aktiviert ist.
Auf der Registerkarte AI-Governance auf der Seite AI Trust Layer können Sie die Verwendung von KI-Modellen von Drittanbietern für Ihre Organisationen, Mandanten oder Benutzergruppen über AI Trust Layer-Richtlinien verwalten. Dies hilft Ihnen, den Benutzerzugriff auf die Funktionen der generativen KI zu steuern, und gewährleistet eine angemessene Governance in Ihrer Organisation.
Sie erhalten einen Überblick über alle aktiven Richtlinien und deren aktuellen Status. Darüber hinaus können Sie Richtlinien und deren Bereitstellungen wie folgt anzeigen und verwalten:
- Wenn Sie den Richtliniennamen auswählen, werden Sie zur jeweiligen AI Trust Layer-Richtlinie in Automation Ops™ > Governance umgeleitet. Sie können nun die Richtliniendetails anzeigen und bei Bedarf Änderungen vornehmen. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien. Sie können eine AI Trust Layer-Richtlinie auch direkt erstellen, indem Sie Richtlinie hinzufügen auswählen.
- Wenn Sie Bereitstellungen verwalten auswählen, werden Sie zu Automation Ops™ > Governance > Bereitstellung umgeleitet, wo Sie alle Ihre Richtlinienbereitstellungen überprüfen können. Weitere Informationen finden Sie unter Bereitstellen von Richtlinien auf Mandantenebene.
Über PII-Maskierung bei der Übertragung
PII-Maskierung in der Übertragung verbessert die AI Trust Layer, indem sichergestellt wird, dass persönlich identifizierbare Informationen (PII) anonymisiert werden, bevor sie Large Language Models (LLMs) erreichen, die in generativen KI-Funktionen verwendet werden. Durch das Abfangen und Maskieren vertraulicher Entitäten während der Laufzeit werden der Datenschutz gewahrt und Compliance-Anforderungen unterstützt, ohne Automatisierungsabläufe zu unterbrechen oder die LLM-Leistung zu beeinträchtigen.
person_1, email_1) vor der Übertragung. Sobald das LLM eine Antwort zurückgibt, rehydratisiert das System automatisch die ursprünglichen PII in der Ausgabe und gewährleistet so eine nahtlose Erfahrung für Benutzer und nachgelagerte Systeme.
PII-Maskierung bei der Übertragung wird derzeit unterstützt in:
- Agents: Eingaben, die während der Ausführung des Agents durch LLMs weitergeleitet werden.
- GenAI-Aktivitäten: Aktivitäten Rewrite Text, Summarize, Semantic Matching.
Wie es funktioniert
PII-In-Flight-Masking ist ein vierstufiger Prozess, der sicherstellt, dass vertrauliche Daten während der Verarbeitung niemals dem LLM offengelegt werden:
- Erkennung – Das System scannt Benutzereingaben und identifiziert persönlich identifizierbare Informationen (PII) mithilfe von sprachspezifischen Entitätserkennungsmodellen.
- Pseudonymisierung – Erkannte PII-Entitäten werden durch anonymisierte, kontextbezogene Platzhalter ersetzt (z. B.
John Doe→person_1,123-456-7890→phone_1). Dies ermöglicht es dem LLM, die Eingabe sicher zu verarbeiten, ohne auf echte PII zuzugreifen. - LLM-Interaktion – Die maskierte Eingabeaufforderung wird an das LLM gesendet. Da keine tatsächlichen PII enthalten sind, schützt dieser Schritt den Datenschutz und ermöglicht dennoch genaue und nützliche Antworten.
- Rehydratation – Nachdem das LLM eine Antwort zurückgegeben hat, ersetzt das System automatisch jeden Platzhalter durch die ursprünglichen PII. Dadurch wird sichergestellt, dass die endgültige Ausgabe den vollständigen Kontext und die Genauigkeit beibehält, ohne dass Informationen verloren gehen.
Beispieltransformation:
- Eingabe: „Anrufen von John Doe unter 123-456-7890.“
- An LLM gesendet: „Call Person_1 at phone_1.“
- Ausgabe: „Anruf John Doe unter 123-456-7890.“
Lizenzierung
PII-In-Flight-Maskierung ist in folgenden Lizenzierungsplänen verfügbar:
- Flex-Pricing-Plan: Enterprise – Standard- und Advanced-Stufen.
- Unified Pricing-Tarif: Standard, Enterprise, App Test Platform Standard, App Test Platform Enterprise.
Wenn Sie die PII-Maskierung in der Übertragung ohne berechtigte Stufenberechtigung aktivieren, schlagen Ihre Agents fehl. Die Durchsetzung des Berechtigungsmechanismus blockiert die Datenverarbeitung, was zu Fehlern und Unterbrechungen des Workflows führt. Dieses Verhalten ist beabsichtigt – es verhindert, dass Sie annehmen, dass die PII-Maskierung aktiv ist, wenn in Wahrheit dennoch vertrauliche Daten an Sprachmodelle gesendet werden.
Um Unterbrechungen zu vermeiden, stellen Sie sicher, dass Ihre Organisation auf einer unterstützten Stufe ist, bevor Sie die PII-Maskierung in der Übertragung aktivieren.
Einschränkungen
Um die Stabilität des Dienstes und eine konsistente Leistung sicherzustellen, ist jeder Mandant auf 200 LLM-Anforderungen mit PII pro Minute begrenzt. Dadurch wird verhindert, dass übermäßiger Datenverkehr die allgemeine Verfügbarkeit des Dienstes beeinträchtigt.
Wenn ein Mandant diesen Schwellenwert überschreitet, werden zusätzliche Anforderungen vorübergehend gedrosselt und erhalten eine HTTP 429." Bitte versuchen Sie es später noch einmal). Das Limit wird nach einer Minute automatisch zurückgesetzt, sodass die Anforderungen fortgesetzt werden können, sobald sich die Nutzung innerhalb des zulässigen Bereichs befindet.
Aktivieren von PII-Maskierung bei der Übertragung
Führen Sie die folgenden Schritte aus, um die PII-Maskierung zu aktivieren:
- Navigieren Sie zu Administrator > AI Trust Layer > AI Governance > Richtlinie hinzufügen.
- Erstellen Sie eine neue AI Trust Layer-Richtlinie oder bearbeiten Sie eine vorhandene.
- Standardmäßig ist die PII-In-Flight-Maskierung sowohl für UiPath GenAI-Aktivitäten als auch für Agenten deaktiviert. Sie müssen sie für einen oder beide Produkttypen explizit mithilfe der entsprechenden Umschalter aktivieren:
- PII-Maskierung für Agents aktivieren
- PII-Maskierung für UiPath GenAI-Aktivitäten aktvieren
-
Nach der Aktivierung wird die Liste der unterstützten PII-Entitäten im Konfigurationsbereich sichtbar. Die Maskierung wird nur auf die Entitäten angewendet, die Sie explizit konfigurieren.
-
Sie können für jede Entität:
- Wählen Sie die PII-Kategorie aus (z. B.
USSocialSecurityNumber,URL,IPAddressusw.). - Aktivieren oder deaktivieren Sie die Maskierung für diese Entität.
- Legen Sie einen Konfidenzschwellenwert für die Erkennung fest. Nur Daten, die über diesem Schwellenwert erkannt werden, werden maskiert. Der Standardkonfidenzschwellenwert ist auf 0,5 festgelegt. Das Ändern dieses Schwellenwerts wirkt sich wie folgt auf das Erkennungsverhalten aus:
- Schwellenwert erhöhen: Erkennung ist selektiver. Es ist weniger wahrscheinlich, dass nicht vertrauliche Daten fälschlicherweise als PII identifiziert werden, aber möglicherweise einige gültige Entitäten übersehen.
- Schwellenwert verringern: Erkennung lässt mehr zu. Sie identifiziert weitere potenzielle PII, kann aber auch Inhalte enthalten, die nicht tatsächlich vertraulich sind.
- Wählen Sie die PII-Kategorie aus (z. B.
- Speichern Sie Ihre Konfiguration nach dem Bearbeiten jeder Entität. Sie können Entitäten einzeln anpassen oder entfernen.
- Scopeen Sie die Richtlinie nach Mandanten, Gruppen oder Benutzern, je nachdem, wie allgemein oder eng die Maskierungsregeln angewendet werden sollen.
Unterstützte Entitäten
In der folgenden Tabelle sind die derzeit unterstützten PII-Entitätstypen aufgeführt, zusammen mit den Sprachen, in denen Erkennung und Pseudon sie verfügbar sind.
| Kategorie | Entität | Sprachen |
|---|---|---|
| Allgemein | Datum
Kann für Geburtsdatum, Aufnahmedatum, Entitäts- oder Sterbedatum verwendet werden. | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi |
| Telefonnummer | en, es, fr, de, it, zh-hans, ja, ko, pt-pt pt-br | |
| GPS-Koordinaten in der EU | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk | |
| en, es, fr, de, it, zh, ja, ko, pt-pt, pt-br, nl, sv, tr, hi | ||
| Person | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi | |
| Address | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi | |
| URL | en, es, fr, de, it, zh, ja, ko, pt-pt, pt-br, nl, sv, tr, hi | |
| IP-Adresse | en, es, fr, de, it, zh, ja, ko, pt-pt, pt-br, nl, sv, tr, hi | |
| Finanzinformationen | IBAN | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi |
| Kreditkartennummern | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi | |
| ABA-Kontoplannummer | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi | |
| SWIFT-Code | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi | |
| Länderspezifisch | US-Bankkontonummer | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk |
| US-Sversicherungsnummer (SSN) | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk | |
| US-Führerlizenznummer | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk | |
| US- oder Vereinigtes Königreich | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk | |
| US-Steuernummer (ITIN) | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk | |
| Britische Führerscheinnummer | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk | |
| Eindeutige Steuerreferenznummer des Vereinigten Königreichs | en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk |
Auf dieser Registerkarte von Autopilot for Everyone auf der Seite AI Trust Layer können Sie die Verwendung von Autopilot for Everyone in Ihrer Organisation verwalten.
Sie können die folgenden Aktionen ausführen:
- Unified Pricing: Enterprise-Plattform, Standard-Plattform, Basis-Plattform, App-Testplattform Enterprise, App-Testplattform Standard.
- Flex: Erweiterte Plattform, Flex Standard-Plattform.
Auf der Registerkarte LLM-Konfigurationen können Sie Ihre vorhandenen KI-Abonnements integrieren und gleichzeitig den von UiPath bereitgestellten Governance-Framework beibehalten. Sie können:
- UiPath LLM-Abonnement ersetzen: Ersetzen Sie von UiPath verwaltete Abonnements durch Ihre eigenen, sofern sie der gleichen Modellfamilie und Version entsprechen, die bereits vom UiPath-Produkt unterstützt wird. Dies ermöglicht einen nahtlosen Wechsel von von UiPath verwalteten Modellen zu Ihren abonnierten Modellen.
- Eigenes LLM hinzufügen: Verwenden Sie ein beliebiges LLM, das die Kompatibilitätskriterien des Produkts erfüllt. Um eine reibungslose Integration zu gewährleisten, muss das von Ihnen gewählte LLM eine Reihe von Tests bestehen, die über einen Testaufruf initiiert wurden, bevor es im UiPath-Ökosystem verwendet werden kann.
Beim Konfigurieren von LLMs bleiben die meisten Governance-Vorteile des AI Trust Layer erhalten, einschließlich der Richtliniendurchsetzung über Automation Ops und detaillierte Prüfungsprotokolle. Modell-Governance-Richtlinien wurden jedoch speziell für von UiPath verwaltete LLMs entwickelt. Das bedeutet, dass, wenn Sie ein bestimmtes Modell über eine AI Trust Layer-Richtlinie deaktivieren, die Einschränkung nur für die von UiPath verwaltete Version dieses Modells gilt. Ihre eigenen konfigurierten Modelle desselben Typs bleiben davon nicht betroffen.
Wenn Sie die Option zur Verwendung Ihres eigenen LLM oder Abonnement nutzen, beachten Sie die folgenden Punkte:
- Kompatibilitätsanforderungen: Das von Ihnen gewählte LLM oder Abonnement muss mit der Modellfamilie und Version übereinstimmen, die derzeit vom UiPath-Produkt unterstützt wird.
-
Einrichtung: Stellen Sie sicher, dass Sie alle erforderlichen LLMs im benutzerdefinierten Setup ordnungsgemäß konfigurieren und verwalten. Wenn eine Komponente fehlt, veraltet oder falsch konfiguriert ist, funktioniert Ihr benutzerdefiniertes Setup möglicherweise nicht mehr. In solchen Fällen kehrt das System automatisch zu einem UiPathverwalteten LLM zurück, um die Kontinuität des Dienstes sicherzustellen, es sei denn, UiPath -LLMs werden durch eine Automation Ops Richtlinie deaktiviert.
-
Kostenersparnis: Wenn Ihre benutzerdefinierte LLM-Einrichtung vollständig und korrekt ist und alle erforderlichen Anforderungen erfüllt, haben Sie möglicherweise Anspruch auf eine reduzierte Verbrauchsrate.
Einrichten einer LLM-Verbindung
LLM-Verbindungen verwenden Integration Service, um die Verbindung zu Ihren eigenen Modellen herzustellen.
Sie können Verbindungen zu den folgenden Anbietern erstellen:
- Azure Open AI
- OpenAI
- Amazon Bedrock
- Google Vertex
- Open AI V1-konformes LLM – Verwenden Sie diese Option, um eine Verbindung mit einem beliebigen LLM-Anbieter herzustellen, dessen API dem OpenAI V1-Standard folgt. Weitere Informationen finden Sie in der Dokumentation zum OpenAI V1-konformen LLM-Connector.
Um eine neue Verbindung einzurichten, führen Sie die folgenden Schritte aus:
Verwalten vorhandener LLM-Verbindungen
Sie können die folgenden Aktionen für Ihre vorhandenen Verbindungen ausführen:
- Status überprüfen – Überprüfen Sie den Status Ihrer Integration Service-Verbindung. Diese Aktion stellt sicher, dass die Verbindung aktiv ist und ordnungsgemäß funktioniert.
- Bearbeiten – Ändern Sie alle Parameter Ihrer vorhandenen Verbindung.
- Deaktivieren – Setzen Sie die Verbindung vorübergehend aus. Wenn diese Option deaktiviert ist, bleibt die Verbindung in Ihrer Liste sichtbar, leitet jedoch keine Anrufe weiter. Sie können die Verbindung bei Bedarf wieder aktivieren.
- Löschen – Entfernen Sie die Verbindung endgültig aus Ihrem System. Diese Aktion deaktiviert die Verbindung und entfernt sie aus Ihrer Liste.
Konfiguration von LLMs für Ihr Produkt
Jedes Produkt unterstützt bestimmte Large Language Models (LLMs) und -Versionen. Verwenden Sie die folgende Tabelle, um die unterstützten Modelle und Versionen für Ihr Produkt zu ermitteln.
Sie können Ihr eigenes LLM mithilfe eines der folgenden Anbieter verbinden: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI oder OpenAI V1 Compliance. Führen Sie die im vorherigen Abschnitt beschriebenen Schritte aus, um eine Verbindung zu erstellen.
| Produkt | Funktionen | LLM | Version |
|---|---|---|---|
| Agents1 | Entwerfen, auswerten und bereitstellen | Anthropic |
Anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.5-sonnet-20241022-v2:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 Anthropic.Claude-3-haiku-20240307-v1:0 |
| OpenAI |
gpt-4o-2024-05-13 gpt-4o-2024-08-06 gpt-4o-2024-11-20 gpt-4o-mini-2025-04-14 gpt-4o-mini-2024-07-18 | ||
| Autopilot for Everyone | Chat | Anthropic |
Anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| UI-Automatisierung (UI Automation) | ScreenPlay | Anthropic | anthropic.claude-sonnet-4-5-20250929-v1:0 |
| gemini-2.0-flight-001 | |||
| OpenAI |
gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 computer-use-preview-2025-03-11 | ||
| Healing Agent | gemini-2.0-flight-001 |
- Tool-(Funktions-)Aufruf – Ihr Modell muss Tools oder Funktionen während der Ausführung aufrufen können.
- Deaktivieren paralleler Toolaufrufe – Wenn dies von Ihrem LLM-Anbieter unterstützt wird, sollte das Modell die Möglichkeit bieten, parallele Toolaufrufe zu deaktivieren.
Hinweis: Bei Verwendung von benutzerdefinierten Modellen kann das System nicht die tatsächliche Tokenkapazität des Modells ermitteln. Agents verwenden standardmäßig ein Limit von 4096 Token, auch wenn das zugrunde liegende Modell einen höheren Wert unterstützt. Dieses Verhalten ist beabsichtigt, da UiPath keine Tokenlimits für kundendefinierte Bereitstellungen ableiten kann.
Die Erstellung von Indizes wird vom AI Trust Layer zum Orchestrator verlagert. Weitere Informationen finden Sie unter Indizes im Orchestrator.
Die Registerkarte „Kontextgrundlage “ im AI Trust Layer bleibt vorübergehend verfügbar. Der einzige Zweck besteht jetzt darin, Sie auf die neue Orchestrator-Indexerstellung umzuleiten. Die Registerkarte wird in einem bevorstehenden Update vollständig eingestellt.
- Überprüfung der Nutzungszusammenfassung
- Anzeigen von Überwachungsprotokollen
- Exportieren von Prüfungsprotokollen
- Umgang mit PII- und PHI-Daten in Prüfungsprotokollen
- Verwalten von AI Trust Layer-Richtlinien
- PII-Maskierung
- Über PII-Maskierung bei der Übertragung
- Wie es funktioniert
- Lizenzierung
- Einschränkungen
- Aktivieren von PII-Maskierung bei der Übertragung
- Unterstützte Entitäten
- Verwalten von Autopilot for Everyone
- Konfigurieren von LLMs
- Einrichten einer LLM-Verbindung
- Verwalten vorhandener LLM-Verbindungen
- Konfiguration von LLMs für Ihr Produkt
- Steuern von kontextbezogenen Daten für GenAI-Funktionen