automation-cloud
latest
false
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde. Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Automation Cloud-Administratorhandbuch

Letzte Aktualisierung 8. Dez. 2025

Verwalten von AI Trust Layer

Überprüfung der Nutzungszusammenfassung

Die Registerkarte Nutzungszusammenfassung auf der Seite AI Trust Layer bietet einen Überblick über die Modellnutzung und Einschränkungen in verschiedenen Regionen. Sie stellt die historischen Daten aus Ihrem Prüfungsprotokoll dar und spiegelt die Einstellungen Ihrer Governance-Richtlinien wider.

Sie können angezeigte Daten nach folgenden Kriterien anzeigen:

  • Gesamt-LLM-Aktionen pro Status: Ermöglicht es Ihnen, den Status verschiedener Modelle in verschiedenen Regionen zu überwachen. Um die Datenvisualisierung anzupassen, können Sie nach Region, Modell, Status und Quelle filtern.
  • Gesamt-LLM-Aktionen pro Produkt: Ermöglicht Ihnen die Überwachung der Einführung von KI-Funktionen in Ihrer Organisation. Um die Datenvisualisierung anzupassen, können Sie nach Mandant und Produkt filtern.

Anzeigen von Überwachungsprotokollen

Die Registerkarte Prüfung auf der Seite AI Trust Layer bietet einen umfassenden Überblick über KI-bezogene Vorgänge, mit Details zu Anforderungen und Aktionen, den Produkten und Funktionen, die Anforderungen initiieren, sowie den verwendeten Modellen und deren Standort. Sie können alle KI-bezogenen Vorgänge überwachen und sicherstellen, dass sie Ihren festgelegten Richtlinien und Richtlinien entsprechen. Prüfungsprotokolle bieten auch Einblicke in die Eingaben und Ausgaben für Gen AI-Aktivitäten, Agenten, Autopilot for Everyone und generative Funktionen von Document Understanding. Beachten Sie, dass Sie Protokolleinträge anzeigen können, die in den letzten 60 Tagen erstellt wurden.

Die Prüfungsdaten werden als Tabelle angezeigt, wobei jede Spalte spezifische Informationen über die KI-bezogenen Vorgänge enthält:

  • Datum (UTC): Dieses zeigt das genaue Datum und die Uhrzeit an, zu der jeder Vorgang angefordert wurde. Es ermöglicht die genaue Nachverfolgung von Anforderungen in ihrer chronologischen Reihenfolge, was die zeitnahe Prüfung erleichtert.
  • Produkt: Das spezifische Produkt, das den jeweiligen Vorgang initiiert hat. Diese Transparenz ermöglicht es, jeden Vorgang bis zu seinem ursprünglichen Produkt zurückzuverfolgen, um ein besseres Verständnis und eine bessere Nachvollziehbarkeit zu erreichen.
  • Funktion: Die spezifische Produktfunktion, die den Vorgang ausgelöst hat, und erleichtert die Rückverfolgbarkeit von Problemen auf bestimmte Funktionen, falls ein Problem aufgetreten ist.
  • Mandant: Der spezifische Mandant innerhalb Ihrer Organisation, der den Vorgang initiiert hat. Dieser Einblick ermöglicht einen detaillierteren Überblick und hilft Muster oder Probleme auf Mandantenebene zu erkennen.
  • Benutzer: Der einzelne Benutzer innerhalb des Mandanten, der den Vorgang initiiert hat. Es ermöglicht die Nachverfolgung von Aktivitäten auf Benutzerebene im Einzelnen und verbessert die Übersichtsfunktionen. Bei GenAI-Aktivitäten wird der Benutzer durch die Person dargestellt, die die Verbindung erstellt hat. Ein Nicht zutreffend-Wert gibt eine Dienst-zu-Dienst-Kommunikation an, bei der ein Benutzer nicht verfügbar ist.
  • Verwendetes Modell: Das spezifische KI-Modell, das zur Verarbeitung jedes Vorgangs verwendet wird. Dieser Einblick bietet ein besseres Verständnis dafür, welche Modelle welche Arten von Anforderungen verarbeiten.
  • Modellspeicherort: Der Speicherort des verwendeten Modells. Diese Informationen können bei der Fehlerbehebung oder bei Prüfungsanforderungen hilfreich sein, die sich aus der Modellleistung an bestimmten Standorten ergeben können.
  • Status: Der Status jedes Vorgangs – er zeigt an, ob er erfolgreich, fehlgeschlagen oder blockiert war. Diese schnelle Möglichkeit, betriebliche Probleme zu identifizieren, ist entscheidend für die Aufrechterhaltung einer reibungslosen und effizienten Umgebung.

Darüber hinaus können Sie mit der Filterfunktion Ihre Prüfung basierend auf Kriterien wie Datum, Produkt, verwendetes Modell, Status oder Quelle eingrenzen. Mit dem Filter Quelle können Sie wählen, ob alle Aufrufe, nur von UiPath verwaltete Aufrufe oder ausschließlich benutzerdefinierte Verbindungsaufrufe (mit kundenseitig verwalteten Abonnements, wie unter Konfigurieren von LLMs definiert) angezeigt werden.

Wenn Sie einen Eintrag aus der Prüfungstabelle auswählen, können Sie außerdem auf den Abschnitt Details für eine detailliertere Überprüfung zugreifen, der alle in der Prüfungstabelle verfügbaren Daten sowie die LLM-Aufrufquelle und die genaue Bereitstellung enthält, die mit der Prüfungstabelle verbunden ist Anruf.

Warnung: Eingabe- und Ausgabefelder von Prüfprotokollen können vorübergehend leer erscheinen, wenn die letzten Einträge angezeigt werden. Dies ist ein bekanntes Latenzproblem, und die Daten sind in der Regel kurz darauf verfügbar.

Exportieren von Prüfungsprotokollen

Diese Funktion ist im Enterprise-Lizenzierungsplan verfügbar.

Mit der Option Exportieren können Sie Prüfungsprotokolle exportieren.

Protokolle exportieren

Auslösen und Herunterladen eines Exports

  1. Wechseln Sie zu „Administrator“ > „AI Trust Layer“ und wählen Sie die Registerkarte Prüfung aus.
  2. Wählen Sie Exportieren aus.
  3. Wählen Sie aus, ob Sie mit oder ohne Eingaben und Ausgaben exportieren möchten. Es kann jeweils nur ein Export verarbeitet werden. Sie müssen warten, bis der aktuelle Export abgeschlossen ist, bevor Sie einen neuen starten.
    Hinweis: Das System verarbeitet Exporte asynchron, wobei diejenigen mit Eingaben und Ausgaben zusätzliche Zeit benötigen.
  4. Nach Abschluss des Exports erhalten Sie Benachrichtigungen per E-Mail und im Benachrichtigungsbereich .
  5. Auf die exportierten Dateien kann für einen Zeitraum von sieben Tagen über die Option Exporte anzeigen auf der Registerkarte AI Trust Layer > Prüfung zugegriffen werden.

Die Benutzeroberfläche zeigt die Anzahl der verbleibenden Exporte mit Eingaben und Ausgaben für den aktuellen Monat an. Bitte beachten Sie, dass der Export mit Eingaben und Ausgaben bis zum nächsten Monat ausgesetzt wird, sobald Sie das monatliche Limit erreicht haben.

Filtern von Daten für Exporte

Verwenden Sie die verfügbaren Filteroptionen, um die Daten, die Sie exportieren möchten, einzugrenzen:

  • Produkt – Wählen Sie die Produkte aus, von denen Sie Daten exportieren möchten.
  • Verwendetes Modell – Wählen Sie bestimmte Modelle aus, um den Export zu filtern.
  • Status – Filtern Sie nach Anforderungen fehlgeschlagen oder erfolgreich. Der Status Fehlgeschlagen wird angezeigt, wenn eine Automation Ops-Richtlinie ein Modell, ein Produkt oder eine Funktion blockiert.
  • Datum – Wählen Sie einen Zeitbereich aus (z. B. Letzter Tag, Letzte Woche, Letzte 30 Tage) und wählen Sie zwischen lokalen oder UTC-Zeitzonen aus.

Durch Filtern können Sie die Größen- und Maximalzeilen pro Exportbeschränkungen umgehen, indem Sie nur die Daten auswählen, die Sie exportieren möchten.

Anzeigen von Exporten

Im Bereich Exporte anzeigen werden die exportierten Daten, der Benutzer, der die Anforderung generiert hat, und der Status des Exports angezeigt. In diesem Bereich können Sie auch Ihre Exporte herunterladen, indem Sie die Aktion Herunterladen auswählen.

Wenn ein Fehler auftritt, ist Ihr monatliches Exportlimit nicht betroffen und Sie können einen neuen Export generieren.

Tabelle 1. Exportstatus
StatusDefinition
AnstehendeDie Anforderung wird verarbeitet. Der Status wechselt zu Abgeschlossen oder Fehlgeschlagen, sobald die Verarbeitung abgeschlossen ist.
Fehlgeschlagen (Failed)Manchmal kann eine Anforderung fehlschlagen.

Eine fehlgeschlagene Anforderung zählt nicht zu Ihrem monatlichen Exportlimit, wenn Sie mit Eingaben und Ausgaben exportieren.

AbgeschlossenDie Verarbeitung ist abgeschlossen und die Datei steht zum Download bereit.
heruntergeladenDie Datei wurde heruntergeladen.
AbgelaufenDie Datei hat das Ende ihres 7-tägigen Verfügbarkeitsfensters erreicht und kann nicht mehr heruntergeladen werden.

CSV-Struktur

Prüfungsprotokolle bestehen aus den folgenden Spalten:

Tabelle 2. CSV-Struktur der Prüfungsprotokolle
SpaltennameTypBeschreibung
DatumDateTimeWann die Aktion registriert wurde.
Aktions-IDZeichenfolge/UUIDEin eindeutiger Bezeichner für die spezifische Aktion. Kann verwendet werden, um Informationen auf der UiPath-Plattform weiter nachzuverfolgen und mehr Einblicke zu erhalten.
ProduktStringName des Produkts, bei dem die Aktion stattgefunden hat.
FunktionenStringName der Funktion, die die Aktion ausgelöst hat.
BenutzerStringDer Benutzer, der die Aktion ausgelöst hat.
MandantStringDer Mandant, in dem die Aktion stattgefunden hat.
ModellStringDas Modell, das die Eingabe verarbeitet hat.
ModelllokalisierungStringDie Region des Modells.
StatusStringStatus für die Aktion, der fehlgeschlagen oder erfolgreich sein kann.

Exportbeschränkungen

Eingaben und Ausgaben, die länger als 32.767 Zeichen sind, werden am Ende abgeschnitten. Der abgeschnittenen Zeile wird automatisch eine Nachricht hinzugefügt, um Sie darüber zu informieren, dass die Informationen abgeschnitten wurden.

Eingaben und Ausgaben werden verarbeitet, um Kommas (",") zu entfernen, sodass Sie Informationen einfach und ohne CSV-Fehlfunktionen verarbeiten können.

Lizenzdauer und Übergangszeitraum

Während des Übergangszeitraums bleibt der Zugriff auf zuvor gespeicherte Daten erhalten. Während dieser Zeit werden jedoch keine neuen Daten im Warm- oder Kaltspeicher gespeichert. Es ist wichtig, zu beachten, dass die Daten im Kaltspeicher irgendwann ablaufen. Die Ablaufzeitspanne wird basierend auf Ihrer Lizenzdauer zuzüglich weiterer zwei oder drei Jahre berechnet, je nach Ihrem vorherigen Lizenztyp. Dieser Ansatz stellt sicher, dass Sie auch nach Ablauf Ihrer Lizenz noch genügend Zeit haben, auf Ihre historischen Daten zuzugreifen.

Datenaufbewahrung und -speicherung
Die Daten werden in der Mandantenregion gespeichert, die Sie beim Erstellen der Organisation und des Mandanten ausgewählt haben, und zwar gemäß den folgenden Regeln:
Tabelle 3. Exportbeschränkungen pro Lizenztyp
FunktionenEnterprise-StandardEnterprise Erweitert
Aktiver Speicher (UI sichtbar)60 Tage60 Tage
Warmer Speicher (Export verfügbar)90 Tage180 Tage
Kaltspeicher (archiviert)2 Jahre3 Jahre
Maximale Zeilen pro Export200.000200.000
Maximale Exportgröße1 GB1 GB
Exporte mit Eingaben und Ausgaben 4 pro Monat4 pro Monat
Exportiert ohne Eingaben und AusgabenUnbegrenztUnbegrenzt

Deaktivieren der Speicherung von Eingaben und Ausgaben

Sie können das Speichern von Eingaben und Ausgaben in Exporten deaktivieren, indem Sie eine Automation Ops-Richtlinie bereitstellen, die auf Mandanten-, Gruppen- oder Benutzerebene gilt. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien.

Sobald diese Funktion deaktiviert wird, werden die Eingaben und Ausgaben nicht mehr gespeichert und können nicht wiederhergestellt werden.

Wichtig: UiPath kann die Daten nicht wiederherstellen, wenn Sie sie nicht speichern. Bevor Sie diese Entscheidung treffen, stellen Sie sicher, dass die Richtlinien Ihres Unternehmens und die relevanten lokalen oder globalen Vorschriften eingehalten werden.

Umgang mit PII- und PHI-Daten in Prüfungsprotokollen

Bei der Verwendung von GenAI-Funktionen in UiPath ist es wichtig zu verstehen, dass Prüfungsprotokolle personenbezogene Daten (PII) oder geschützte Gesundheitsdaten (PHI) enthalten können. Diese Details können sowohl in den Eingabeaufforderungen angezeigt werden, die an Large Language Models (LLMs) gesendet werden, als auch in den Antworten, die sie generieren. Dies gilt für Interaktionen, die über Attended- und Unattended-Automatisierungen ausgeführt werden.

Im Abschnitt Details eines jeden Prüfprotokolleintrags wird der vollständige Inhalt der Eingabe und Ausgabe angezeigt, wenn das Speichern von Prompts aktiviert ist. Dazu gehören Metadaten wie:

  • Aktions-ID
  • Mandant
  • Produkt
  • Funktionen
  • Benutzer
  • Zeitstempel
Verbergen von sensiblen Daten zur Compliance

Wenn Ihre Compliance-Regeln es erfordern, dass PII- und PHI-Daten in Prüfungsprotokollen ausgeblendet werden, können Sie die AI Trust Layer-Richtlinie konfigurieren, um die Sichtbarkeit zu steuern:

  1. Gehen Sie zu Automation Ops™ > Governance und wählen oder erstellen Sie eine AI Trust Layer-Richtlinie.
  2. Stellen Sie auf der Registerkarte Funktionsumschalter sicher, dass Sie die Option Speichern von Eingabeaufforderungen für Prüfung aktivieren? auf Nein.

Mit dieser Einstellung werden weder Prompts noch LLM-Ausgaben in den Prüfungsprotokollen gespeichert. Im Protokoll werden die Eintragsmetadaten angezeigt, aber der Ein-/Ausgabeinhalt wird als „Durch Richtlinie blockiert“ angezeigt.

Hinweis:

Mit dieser Konfiguration können Sie vertrauliche Inhalte aus Protokolleinträgen ausblenden, Compliance-Anforderungen einhalten und die Sichtbarkeit vertraulicher Daten steuern, während Prüfungsfunktionen erhalten bleiben. Einmal ausgeblendet, können Sie die Prompts nicht zur weiteren Verwendung wiederherstellen.

Anzeigen von PII-Protokollen

Redaktionieren von PII und PHI

Sie können Prüfungsprotokolle beibehalten und gleichzeitig vertrauliche Inhalte maskieren, indem Sie die Option PII-Maskierung aktivieren. Weitere Informationen dazu finden Sie unter PII-Maskierung.

Das AI Trust Layer Audit Log bietet vollständigen Einblick in die Art und Weise, wie persönlich identifizierbare Informationen (PII) bei Interaktionen mit Large Language Models (LLMs) verarbeitet werden.

Mit dem Prüfungsprotokoll können Sie:

  • Überprüfen Sie, ob PII in einem bestimmten Prompt erkannt wurden.
  • Bestätigen Sie, ob die Maskierung (Pseudononyme) auf die erkannten Entitäten angewendet wurde.
  • Überprüfen Sie die tatsächliche Eingabe, die an das LLM gesendet wurde, und stellen Sie sicher, dass keine unformatierten PII offengelegt wurden.

Diese Stufe der Transparenz unterstützt die Compliance-Bemühungen, schafft Vertrauen bei den Beteiligten und bietet einen detaillierten Prüfungspfad für jede Interaktion, bei der PII-Maskierung während der Übertragung aktiviert ist.

Hinweis: Verwenden Sie das Prüfungsprotokoll, um zu überprüfen, ob vertrauliche Daten bei KI-gesteuerten Automatisierungen konsistent geschützt sind.

Verwalten von AI Trust Layer-Richtlinien

Auf der Registerkarte AI-Governance auf der Seite AI Trust Layer können Sie die Verwendung von KI-Modellen von Drittanbietern für Ihre Organisationen, Mandanten oder Benutzergruppen über AI Trust Layer-Richtlinien verwalten. Dies hilft Ihnen, den Benutzerzugriff auf die Funktionen der generativen KI zu steuern, und gewährleistet eine angemessene Governance in Ihrer Organisation.

Sie erhalten einen Überblick über alle aktiven Richtlinien und deren aktuellen Status. Darüber hinaus können Sie Richtlinien und deren Bereitstellungen wie folgt anzeigen und verwalten:

  • Wenn Sie den Richtliniennamen auswählen, werden Sie zur jeweiligen AI Trust Layer-Richtlinie in Automation Ops™ > Governance umgeleitet. Sie können nun die Richtliniendetails anzeigen und bei Bedarf Änderungen vornehmen. Weitere Informationen finden Sie unter Einstellungen für AI Trust Layer-Richtlinien. Sie können eine AI Trust Layer-Richtlinie auch direkt erstellen, indem Sie Richtlinie hinzufügen auswählen.
  • Wenn Sie Bereitstellungen verwalten auswählen, werden Sie zu Automation Ops™ > Governance > Bereitstellung umgeleitet, wo Sie alle Ihre Richtlinienbereitstellungen überprüfen können. Weitere Informationen finden Sie unter Bereitstellen von Richtlinien auf Mandantenebene.

PII-Maskierung

Über PII-Maskierung bei der Übertragung

PII-Maskierung in der Übertragung verbessert die AI Trust Layer, indem sichergestellt wird, dass persönlich identifizierbare Informationen (PII) anonymisiert werden, bevor sie Large Language Models (LLMs) erreichen, die in generativen KI-Funktionen verwendet werden. Durch das Abfangen und Maskieren vertraulicher Entitäten während der Laufzeit werden der Datenschutz gewahrt und Compliance-Anforderungen unterstützt, ohne Automatisierungsabläufe zu unterbrechen oder die LLM-Leistung zu beeinträchtigen.

Wenn diese Option aktiviert ist, erkennt und ersetzt die PII-Maskierung bei der Übertragung PII-Entitäten durch kontextbezogene Platzhalter (z. B. person_1, email_1) vor der Übertragung. Sobald das LLM eine Antwort zurückgibt, rehydratisiert das System automatisch die ursprünglichen PII in der Ausgabe und gewährleistet so eine nahtlose Erfahrung für Benutzer und nachgelagerte Systeme.

PII-Maskierung bei der Übertragung wird derzeit unterstützt in:

  • Agents: Eingaben, die während der Ausführung des Agents durch LLMs weitergeleitet werden.
  • GenAI-Aktivitäten: Aktivitäten Rewrite Text, Summarize, Semantic Matching.

Wie es funktioniert

PII-In-Flight-Masking ist ein vierstufiger Prozess, der sicherstellt, dass vertrauliche Daten während der Verarbeitung niemals dem LLM offengelegt werden:

  1. Erkennung – Das System scannt Benutzereingaben und identifiziert persönlich identifizierbare Informationen (PII) mithilfe von sprachspezifischen Entitätserkennungsmodellen.
  2. Pseudonymisierung – Erkannte PII-Entitäten werden durch anonymisierte, kontextbezogene Platzhalter ersetzt (z. B. John Doeperson_1, 123-456-7890phone_1). Dies ermöglicht es dem LLM, die Eingabe sicher zu verarbeiten, ohne auf echte PII zuzugreifen.
  3. LLM-Interaktion – Die maskierte Eingabeaufforderung wird an das LLM gesendet. Da keine tatsächlichen PII enthalten sind, schützt dieser Schritt den Datenschutz und ermöglicht dennoch genaue und nützliche Antworten.
  4. Rehydratation – Nachdem das LLM eine Antwort zurückgegeben hat, ersetzt das System automatisch jeden Platzhalter durch die ursprünglichen PII. Dadurch wird sichergestellt, dass die endgültige Ausgabe den vollständigen Kontext und die Genauigkeit beibehält, ohne dass Informationen verloren gehen.

Beispieltransformation:

  • Eingabe: „Anrufen von John Doe unter 123-456-7890.“
  • An LLM gesendet: „Call Person_1 at phone_1.“
  • Ausgabe: „Anruf John Doe unter 123-456-7890.“

Lizenzierung

PII-In-Flight-Maskierung ist in folgenden Lizenzierungsplänen verfügbar:

  • Flex-Pricing-Plan: Enterprise – Standard- und Advanced-Stufen.
  • Unified Pricing-Tarif: Standard, Enterprise, App Test Platform Standard, App Test Platform Enterprise.
Wichtig:

Wenn Sie die PII-Maskierung in der Übertragung ohne berechtigte Stufenberechtigung aktivieren, schlagen Ihre Agents fehl. Die Durchsetzung des Berechtigungsmechanismus blockiert die Datenverarbeitung, was zu Fehlern und Unterbrechungen des Workflows führt. Dieses Verhalten ist beabsichtigt – es verhindert, dass Sie annehmen, dass die PII-Maskierung aktiv ist, wenn in Wahrheit dennoch vertrauliche Daten an Sprachmodelle gesendet werden.

Um Unterbrechungen zu vermeiden, stellen Sie sicher, dass Ihre Organisation auf einer unterstützten Stufe ist, bevor Sie die PII-Maskierung in der Übertragung aktivieren.

Einschränkungen

Um die Stabilität des Dienstes und eine konsistente Leistung sicherzustellen, ist jeder Mandant auf 200 LLM-Anforderungen mit PII pro Minute begrenzt. Dadurch wird verhindert, dass übermäßiger Datenverkehr die allgemeine Verfügbarkeit des Dienstes beeinträchtigt.

Wenn ein Mandant diesen Schwellenwert überschreitet, werden zusätzliche Anforderungen vorübergehend gedrosselt und erhalten eine HTTP 429." Bitte versuchen Sie es später noch einmal). Das Limit wird nach einer Minute automatisch zurückgesetzt, sodass die Anforderungen fortgesetzt werden können, sobald sich die Nutzung innerhalb des zulässigen Bereichs befindet.

Aktivieren von PII-Maskierung bei der Übertragung

Führen Sie die folgenden Schritte aus, um die PII-Maskierung zu aktivieren:

  1. Navigieren Sie zu Administrator > AI Trust Layer > AI Governance > Richtlinie hinzufügen.
  2. Erstellen Sie eine neue AI Trust Layer-Richtlinie oder bearbeiten Sie eine vorhandene.
  3. Standardmäßig ist die PII-In-Flight-Maskierung sowohl für UiPath GenAI-Aktivitäten als auch für Agenten deaktiviert. Sie müssen sie für einen oder beide Produkttypen explizit mithilfe der entsprechenden Umschalter aktivieren:
    • PII-Maskierung für Agents aktivieren
    • PII-Maskierung für UiPath GenAI-Aktivitäten aktvieren
  4. Nach der Aktivierung wird die Liste der unterstützten PII-Entitäten im Konfigurationsbereich sichtbar. Die Maskierung wird nur auf die Entitäten angewendet, die Sie explizit konfigurieren.

  5. Sie können für jede Entität:

    • Wählen Sie die PII-Kategorie aus (z. B. USSocialSecurityNumber, URL, IPAddress usw.).
    • Aktivieren oder deaktivieren Sie die Maskierung für diese Entität.
    • Legen Sie einen Konfidenzschwellenwert für die Erkennung fest. Nur Daten, die über diesem Schwellenwert erkannt werden, werden maskiert. Der Standardkonfidenzschwellenwert ist auf 0,5 festgelegt. Das Ändern dieses Schwellenwerts wirkt sich wie folgt auf das Erkennungsverhalten aus:
      • Schwellenwert erhöhen: Erkennung ist selektiver. Es ist weniger wahrscheinlich, dass nicht vertrauliche Daten fälschlicherweise als PII identifiziert werden, aber möglicherweise einige gültige Entitäten übersehen.
      • Schwellenwert verringern: Erkennung lässt mehr zu. Sie identifiziert weitere potenzielle PII, kann aber auch Inhalte enthalten, die nicht tatsächlich vertraulich sind.
  6. Speichern Sie Ihre Konfiguration nach dem Bearbeiten jeder Entität. Sie können Entitäten einzeln anpassen oder entfernen.
  7. Scopeen Sie die Richtlinie nach Mandanten, Gruppen oder Benutzern, je nachdem, wie allgemein oder eng die Maskierungsregeln angewendet werden sollen.

Unterstützte Entitäten

In der folgenden Tabelle sind die derzeit unterstützten PII-Entitätstypen aufgeführt, zusammen mit den Sprachen, in denen Erkennung und Pseudon sie verfügbar sind.

Tabelle 4. Unterstützte Entitäten mit Sprachcode
KategorieEntitätSprachen
AllgemeinDatum

Kann für Geburtsdatum, Aufnahmedatum, Entitäts- oder Sterbedatum verwendet werden.

en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi
Telefonnummeren, es, fr, de, it, zh-hans, ja, ko, pt-pt pt-br
GPS-Koordinaten in der EUen, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk
E-Mailen, es, fr, de, it, zh, ja, ko, pt-pt, pt-br, nl, sv, tr, hi
Personen, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi
Addressen, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi
URLen, es, fr, de, it, zh, ja, ko, pt-pt, pt-br, nl, sv, tr, hi
IP-Adresseen, es, fr, de, it, zh, ja, ko, pt-pt, pt-br, nl, sv, tr, hi
FinanzinformationenIBANen, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi
Kreditkartennummernen, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi
ABA-Kontoplannummeren, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi
SWIFT-Codeen, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, af, ca, da, el, ga, l, ku, nl, no, ss, ro, sq, ur, ar, bg, bs, cy, fa, hr, id,MG, mk, ms, ps, ru, sl, so, sr, SW, am, as, cs, et, eu, fi, he, hu, Gen, lo, LT, lv, mr, my, Ne, or, or, pic, pl, sk, th, uk, az, bn, Gu, hy, ka, eck,geben, ky, ml, mn, ta, te, ug, Uz, vi
LänderspezifischUS-Bankkontonummeren, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk
US-Sversicherungsnummer (SSN)en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk
US-Führerlizenznummeren, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk
US- oder Vereinigtes Königreichen, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk
US-Steuernummer (ITIN)en, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk
Britische Führerscheinnummeren, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk
Eindeutige Steuerreferenznummer des Vereinigten Königreichsen, es, fr, de, it, pt-pt, pt-br, zh, ja, ko, nl, sv, tr, hi, da, nl, no, ro, ar, bg, hr, ms, ru, sl, cs, et, fi, he, hu, lv, sk, th, uk

Verwalten von Autopilot for Everyone

Auf dieser Registerkarte von Autopilot for Everyone auf der Seite AI Trust Layer können Sie die Verwendung von Autopilot for Everyone in Ihrer Organisation verwalten.

Sie können die folgenden Aktionen ausführen:

Konfigurieren von LLMs

Hinweis: LLM-Konfigurationen sind in den folgenden Lizenzierungsplänen verfügbar:
  • Unified Pricing: Enterprise-Plattform, Standard-Plattform, Basis-Plattform, App-Testplattform Enterprise, App-Testplattform Standard.
  • Flex: Erweiterte Plattform, Flex Standard-Plattform.

Auf der Registerkarte LLM-Konfigurationen können Sie Ihre vorhandenen KI-Abonnements integrieren und gleichzeitig den von UiPath bereitgestellten Governance-Framework beibehalten. Sie können:

  • UiPath LLM-Abonnement ersetzen: Ersetzen Sie von UiPath verwaltete Abonnements durch Ihre eigenen, sofern sie der gleichen Modellfamilie und Version entsprechen, die bereits vom UiPath-Produkt unterstützt wird. Dies ermöglicht einen nahtlosen Wechsel von von UiPath verwalteten Modellen zu Ihren abonnierten Modellen.
  • Eigenes LLM hinzufügen: Verwenden Sie ein beliebiges LLM, das die Kompatibilitätskriterien des Produkts erfüllt. Um eine reibungslose Integration zu gewährleisten, muss das von Ihnen gewählte LLM eine Reihe von Tests bestehen, die über einen Testaufruf initiiert wurden, bevor es im UiPath-Ökosystem verwendet werden kann.

Beim Konfigurieren von LLMs bleiben die meisten Governance-Vorteile des AI Trust Layer erhalten, einschließlich der Richtliniendurchsetzung über Automation Ops und detaillierte Prüfungsprotokolle. Modell-Governance-Richtlinien wurden jedoch speziell für von UiPath verwaltete LLMs entwickelt. Das bedeutet, dass, wenn Sie ein bestimmtes Modell über eine AI Trust Layer-Richtlinie deaktivieren, die Einschränkung nur für die von UiPath verwaltete Version dieses Modells gilt. Ihre eigenen konfigurierten Modelle desselben Typs bleiben davon nicht betroffen.

Wenn Sie die Option zur Verwendung Ihres eigenen LLM oder Abonnement nutzen, beachten Sie die folgenden Punkte:

  • Kompatibilitätsanforderungen: Das von Ihnen gewählte LLM oder Abonnement muss mit der Modellfamilie und Version übereinstimmen, die derzeit vom UiPath-Produkt unterstützt wird.
  • Einrichtung: Stellen Sie sicher, dass Sie alle erforderlichen LLMs im benutzerdefinierten Setup ordnungsgemäß konfigurieren und verwalten. Wenn eine Komponente fehlt, veraltet oder falsch konfiguriert ist, funktioniert Ihr benutzerdefiniertes Setup möglicherweise nicht mehr. In solchen Fällen kehrt das System automatisch zu einem UiPathverwalteten LLM zurück, um die Kontinuität des Dienstes sicherzustellen, es sei denn, UiPath -LLMs werden durch eine Automation Ops Richtlinie deaktiviert.

  • Kostenersparnis: Wenn Ihre benutzerdefinierte LLM-Einrichtung vollständig und korrekt ist und alle erforderlichen Anforderungen erfüllt, haben Sie möglicherweise Anspruch auf eine reduzierte Verbrauchsrate.

Einrichten einer LLM-Verbindung

LLM-Verbindungen verwenden Integration Service, um die Verbindung zu Ihren eigenen Modellen herzustellen.

Sie können Verbindungen zu den folgenden Anbietern erstellen:

  • Azure Open AI
  • OpenAI
  • Amazon Bedrock
  • Google Vertex
  • Open AI V1-konformes LLM – Verwenden Sie diese Option, um eine Verbindung mit einem beliebigen LLM-Anbieter herzustellen, dessen API dem OpenAI V1-Standard folgt. Weitere Informationen finden Sie in der Dokumentation zum OpenAI V1-konformen LLM-Connector.

Um eine neue Verbindung einzurichten, führen Sie die folgenden Schritte aus:

  1. Erstellen Sie eine Verbindung im Integration Service mit dem Anbieter Ihrer Wahl. Connector-spezifische Authentifizierungsdetails finden Sie im Benutzerhandbuch zum Integration Service.
    Hinweis: Um unbefugten Zugriff zu verhindern, erstellen Sie die Integration Service-Verbindung in einem privaten, nicht freigegebenen Ordner.
  2. Navigieren Sie zu Administrator > AI Trust Layer > LLM-Konfigurationen.
  3. Wählen Sie den Mandanten und den Ordner aus, in dem Sie die Verbindung konfigurieren möchten.
  4. Wählen Sie Konfiguration hinzufügen aus.
  5. Wählen Sie das Produkt und die Funktion aus .
  6. Wählen Sie aus, wie Sie konfigurieren möchten:
    • UiPath LLM-Abonnement ersetzen – Verwenden Sie Ihre eigene Verbindung anstelle einer von UiPath verwalteten.

    • Eigenes LLM hinzufügen – Fügen Sie eine zusätzliche LLM-Konfiguration hinzu, die vollständig von Ihnen verwaltet wird.

  7. Richten Sie die Verbindung für das Abonnement „UiPath LLM ersetzen“ ein:
    1. Ordner – Wählen Sie den Ordner aus, in dem die Konfiguration gespeichert wird.
    2. Austauschbares LLM – Wählen Sie aus der Dropdownliste das UiPath-LLM aus, das Sie ersetzen möchten.
    3. Connector – Wählen Sie Ihren Connector aus (z. B. Microsoft Azure OpenAI).
    4. Verbindung – Wählen Sie Ihre Integration Service-Verbindung aus. Wenn keine verfügbar ist, wählen Sie Neue Verbindung hinzufügen aus , um zum Integration Service umgeleitet zu werden.
    5. LLM-Bezeichner – Geben Sie den Bezeichner für Ihr Modell ein.
      • Geben Sie für von Azure gehostete Modelle den Modellbezeichner ein.
      • Geben Sie für die Regionsübergreifende AWS Bedrock-Inferenz die Inferenzprofil-ID anstelle der Modell-ID ein.
  8. Richten Sie die Verbindung für Eigenes LLM hinzufügen ein:
    1. Ordner – Wählen Sie den Ordner aus, in dem die Konfiguration gespeichert wird.
    2. Angezeigter Name (LLM) – Geben Sie einen Alias für Ihr LLM an.
    3. Connector – Wählen Sie Ihren Connector aus (z. B. Microsoft Azure OpenAI).
    4. Verbindung – Wählen Sie Ihre Integration Service-Verbindung aus.
    5. LLM-Bezeichner – Geben Sie den Bezeichner für Ihr Modell ein.
      • Geben Sie für von Azure gehostete Modelle den Modellbezeichner ein.
      • Geben Sie für die Regionsübergreifende AWS Bedrock-Inferenz die Inferenzprofil-ID anstelle der Modell-ID ein.
  9. Wählen Sie Testkonfiguration aus, um zu überprüfen, ob das Modell erreichbar ist und die erforderlichen Kriterien erfüllt.
    UiPath kann die Erreichbarkeit bestätigen. Die Überprüfung des genauen Modells liegt in Ihrer Verantwortung.
  10. Wenn der Test erfolgreich ist, wählen Sie Speichern aus, um die Verbindung zu aktivieren.

Verwalten vorhandener LLM-Verbindungen

Sie können die folgenden Aktionen für Ihre vorhandenen Verbindungen ausführen:

  • Status überprüfen – Überprüfen Sie den Status Ihrer Integration Service-Verbindung. Diese Aktion stellt sicher, dass die Verbindung aktiv ist und ordnungsgemäß funktioniert.
  • Bearbeiten – Ändern Sie alle Parameter Ihrer vorhandenen Verbindung.
  • Deaktivieren – Setzen Sie die Verbindung vorübergehend aus. Wenn diese Option deaktiviert ist, bleibt die Verbindung in Ihrer Liste sichtbar, leitet jedoch keine Anrufe weiter. Sie können die Verbindung bei Bedarf wieder aktivieren.
  • Löschen – Entfernen Sie die Verbindung endgültig aus Ihrem System. Diese Aktion deaktiviert die Verbindung und entfernt sie aus Ihrer Liste.

Konfiguration von LLMs für Ihr Produkt

Jedes Produkt unterstützt bestimmte Large Language Models (LLMs) und -Versionen. Verwenden Sie die folgende Tabelle, um die unterstützten Modelle und Versionen für Ihr Produkt zu ermitteln.

Sie können Ihr eigenes LLM mithilfe eines der folgenden Anbieter verbinden: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI oder OpenAI V1 Compliance. Führen Sie die im vorherigen Abschnitt beschriebenen Schritte aus, um eine Verbindung zu erstellen.

ProduktFunktionenLLMVersion
Agents1Entwerfen, auswerten und bereitstellenAnthropic

Anthropic.Claude-3.5-sonnet-20240620-v1:0

Anthropic.Claude-3.5-sonnet-20241022-v2:0

Anthropic.Claude-3.7-sonnet-20250219-v1:0

Anthropic.Claude-3-haiku-20240307-v1:0

OpenAI

gpt-4o-2024-05-13

gpt-4o-2024-08-06

gpt-4o-2024-11-20

gpt-4o-mini-2025-04-14

gpt-4o-mini-2024-07-18

Autopilot for EveryoneChatAnthropic

Anthropic.Claude-3.5-sonnet-20240620-v1:0

Anthropic.Claude-3.7-sonnet-20250219-v1:0

OpenAIgpt-4o-mini-2024-07-18
UI-Automatisierung (UI Automation)ScreenPlayAnthropicanthropic.claude-sonnet-4-5-20250929-v1:0
Googlegemini-2.0-flight-001
OpenAI

gpt-4.1-mini-2025-04-14

gpt-4.1-2025-04-14

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

computer-use-preview-2025-03-11

Healing AgentGooglegemini-2.0-flight-001
1 Stellen Sie bei der Konfiguration Ihrer Modellbereitstellung für Agents sicher, dass Ihr LLM die folgenden Funktionen unterstützt:
  • Tool-(Funktions-)Aufruf – Ihr Modell muss Tools oder Funktionen während der Ausführung aufrufen können.
  • Deaktivieren paralleler Toolaufrufe – Wenn dies von Ihrem LLM-Anbieter unterstützt wird, sollte das Modell die Möglichkeit bieten, parallele Toolaufrufe zu deaktivieren.
    Hinweis: Bei Verwendung von benutzerdefinierten Modellen kann das System nicht die tatsächliche Tokenkapazität des Modells ermitteln. Agents verwenden standardmäßig ein Limit von 4096 Token, auch wenn das zugrunde liegende Modell einen höheren Wert unterstützt. Dieses Verhalten ist beabsichtigt, da UiPath keine Tokenlimits für kundendefinierte Bereitstellungen ableiten kann.

Steuern von kontextbezogenen Daten für GenAI-Funktionen

Die Erstellung von Indizes wird vom AI Trust Layer zum Orchestrator verlagert. Weitere Informationen finden Sie unter Indizes im Orchestrator.

Die Registerkarte „Kontextgrundlage “ im AI Trust Layer bleibt vorübergehend verfügbar. Der einzige Zweck besteht jetzt darin, Sie auf die neue Orchestrator-Indexerstellung umzuleiten. Die Registerkarte wird in einem bevorstehenden Update vollständig eingestellt.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo
Vertrauen und Sicherheit
© 2005–2025 UiPath. Alle Rechte vorbehalten