UiPath Documentation
test-cloud
latest
false
Wichtig :
Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Test Cloud-Administratorhandbuch

Letzte Aktualisierung 7. Apr. 2026

Arbeiten mit Kontextgrundlage

Dieser Abschnitt enthält Informationen zur effektiven Nutzung von Kontextgrundlage.

Erste Schritte

Um Kontextgrundlage mit Agents oder Autopilot for Everyone zu verwenden, erstellen Sie einen Index gemäß den unter Erstellen von Indizes beschriebenen Schritten.

Um Kontexterstellung mit Aktivitäten zu verwenden, erstellen Sie eine Verbindung mit dem UiPath GenAI-Aktivitätsconnector und stellen Sie sicher, dass Sie Studio Web oder Studio Desktop ab Version 2024.4 verwenden.

Verwalten der Erfassungspipeline

Sie können die Erfassungspipelines verwalten über:

  • Orchestrator oder Agents auf der Seite Indizes . Siehe Verwalten von Indizes.
  • Die Aktivität Update Context Grounding Index , Teil des UiPath GenAI-Aktivitätspakets.

Abfragen von Daten mit Kontextgrundlage

Nach der Erstellung eines Indexes im Orchestrator ist der Zugriff auf Indizes auf der gesamten UiPath-Plattform möglich. Diese Indizes dienen als persistenter Speicher für Dokumente, die aus Ihren Datenquellen erfasst wurden, und bieten eine wiederverwendbare Ressource für verschiedene UiPath-Produkte:

  • In Autopilot for Everyone verbessert Kontextgrundlage die Benutzerinteraktion, indem die Suche über vorhandene Indizes hinweg ermöglicht wird, um genaue Antworten auf Abfragen zu liefern. Weitere Informationen dazu finden Sie unter Kontextgrundlage in Autopilot for Everyone.
  • GenAI-Aktivitäten profitieren von der Kontextgrundlage, indem sie die Erstellung von Inhalten basierend auf Informationen ermöglichen, die in genehmigten Wissensdatenbanken gespeichert sind. Weitere Informationen dazu finden Sie unter GenAI-Aktivitäten.
  • Für Agents spielen Indizes eine entscheidende Rolle bei der Kontextbereitstellung während der Ausführungen. Weitere Information dazu finden Sie unter Kontexte.

Grundlage für den Überwachungskontext

Für die Optimierung der Leistung und die Fehlerbehebung ist es wichtig zu verstehen, wie Kontextgrundlage Ihre Workflows beeinflusst. Hier erfahren Sie, wie Sie Kontextgrundlagenausgaben in verschiedenen UiPath-Produkten nachverfolgen und anzeigen können.

Gehen Sie in Agents zu der Ansicht Ablaufverfolgung der Ausführung des Agents, um umfassende Details anzuzeigen. Diese Ansicht enthält alle Suchergebnisse und Zitate aus der Abfrage zur Kontextgrundlage und bietet Einblicke in den Entscheidungsprozess des Agents.

So sammeln Sie detaillierte Informationen über Kontextgrundlage in GenAI-Aktivitäten:

  1. Platzieren Sie eine Log Message- Aktivität direkt nach der Aktivität Content Generation in Ihrer Workflow-Sequence.
  2. Verwenden Sie die folgenden Ausgabevariablen, um bestimmte Informationen zu erfassen:
    • Am häufigsten generierter Text: Zeigt die Antwort der LLM-Generierung nach der Workflowausführung an.
    • Zitate: Untersuchen Sie die semantischen Suchergebnisse, die die Generierungsausgabe beeinflusst haben. Dies funktioniert nur für PDF- und JSON-Datentypen.

Kontextgrundlage in GenAI-Aktivitäten

Kontextgrundlage interagiert in drei Phasen mit Ihren Daten:

  1. Legen Sie Ihre Datenquelle für Kontextgrundlage fest.
    • Kontextgrundlage folgt den Berechtigungen für freigegebene Ordner. Verwenden Sie einen Ordner mit entsprechendem Zugriff zum Verwalten und Abfragen von Daten.
    • Erstellen Sie eine Verbindung mit den unterstützten Integration Service-Datenquellen, oder fügen Sie Daten zu einem freigegebenen Orchestrator-Bucket-Speicherort hinzu.
  2. Erfassen Sie Daten aus Ihrer Datenquelle in Kontextgrundlage.
    • Erstellen und synchronisieren Sie Indizes im Orchestrator.
    • Verwenden Sie die Aktivität Update Context Grounding Index, um einen von Ihnen erstellten Index zu synchronisieren.
  3. Abfragen und Verbindungsaufforderungen mit Ihren Daten.
    • Verwenden Sie die Aktivität Content Generation, Agents oder Autopilot for Everyone, um Dokumente abzufragen und Informationen zu verwenden, um Eingabeaufforderungen zu erweitern oder zu Grunde zu legen.

Allgemeine Muster der Kontextgrundlage

Die Kernkomponenten von Kontextgrundlage sind so konzipiert, dass sie einen Mechanismus bereitstellen, der die Suche nach relevanten Informationen innerhalb und zwischen Dokumenten unterstützt und nur die relevantesten Teile anzeigt, die für eine hochwertige Generierung mit geringer Latenz aus einem LLM erforderlich sind.

Suchen in Dokumenten

Der Dienst Kontextgrundlage hilft Ihnen, bestimmte Informationen innerhalb eines einzelnen Dokuments effektiver zu finden. Anstatt nur Schlüsselwörter abzugleichen, versteht sie die Bedeutung und den Kontext Ihrer Suchanfrage. Wenn Sie beispielsweise nach Informationen über „Apfeltorte-Rezepte“ in einem Backbuch suchen, wird deutlich, dass Sie sich für Nachdesserts und Backen und nicht für Technologie oder Obstanbau interessieren.

Durchsuchen von Dokumenten

Kontextgrundlage hilft Ihnen, Informationen zu finden, die über mehrere Dokumente verteilt sind. Sie kann die Beziehungen zwischen verschiedenen Informationen verstehen und relevantere Ergebnisse liefern. Wenn Sie beispielsweise die „Auswirkungen des Klickens auf die Landarbeit“ in verschiedenen wissenschaftlichen Arbeiten untersuchen, werden relevante Informationen aus mehreren Quellen zusammengeführt, um zu berücksichtigen, dass Themen wie Einfluss des Einflusses des Klickens, Feldernte und Temperaturänderungen mit Ihrer Abfrage zusammenhängen.

Das bedeutet, dass Sie Kontextgrundlage verwenden können für:

  • Datenextraktion und -vergleich: Die Kontextgrundlage kann bestimmte Informationstypen automatisch aus Dokumenten identifizieren und extrahieren und sie dann auf sinnvolle Weise vergleichen. Stellen Sie sich vor, Sie haben eine Reihe von Lebensläufen und möchten die Arbeitserfahrungen der Kandidaten vergleichen. Der Dienst könnte Berufsbezeichnungen, Dauer und Zuständigkeiten extrahieren und sie dann so darstellen, dass der Vergleich erleichtert wird, auch wenn die Informationen in jeder Zusammenfassung unterschiedlich formatiert sind.
  • Zusammenfassung: Die Kontextgrundlage kann Zusammenfassungen von langen Dokumenten oder mehreren zugehörigen Dokumenten erstellen. Es wählt keine zufälligen Sätze aus, versteht aber die wichtigsten Punkte und die Gesamtaussage. Wenn Sie beispielsweise einen langen Bericht über Markttrends haben, kann der Dienst eine Zusammenfassung bereitstellen, in der die wichtigsten Ergebnisse, wichtigsten Statistiken und allgemeinen Schlussfolgerungen hervorgehoben werden.

Benachrichtigungen

Sie können abonnieren, um Benachrichtigungen von Kontextgrundlage zu erhalten. Im Benachrichtigungsbereich erfahren Sie mehr.

Ereignisse dienen als Trigger für Benachrichtigungen. Die Kontextgrundlagen-Ereignisse, die Benachrichtigungen generieren, sind:

  • Erfassungsauftrag abgeschlossen
  • Erfassungsauftrag fehlgeschlagen
  • Erfassungsauftrag gestartet

Sie können auch Ereignisse basierend auf ihrem Schweregrad abonnieren, z. B. Erfolg oder Fehler.

Bringen Sie Ihre eigene Vektordatenbank mit

Nutzen Sie Ihre vorhandene Vektordatenbank, um Agentenantworten in vertrauenswürdigen Unternehmensdaten zu verankern, ohne Inhalte zu duplizieren oder Ihre aktuelle Architektur zu ändern.

Diese Anleitung zeigt, wie Sie extern verwaltete Vektordatenbanken (z. B. Databricks Vektor Search oder Azure AI Search) mithilfe von API-Workflows mit UiPath-Agenten verbinden und so eine Retrieval Augmented Generation (RAG) mit Ihren eigenen Datenquellen ermöglichen.

Am Ende dieser Anleitung werden Sie in der Lage sein:

  • Fragen Sie eine externe Vektordatenbank von einem UiPath-Agent ab.
  • Gibt den relevantesten Inhalt als strukturierten Kontext zurück.
  • Legen Sie Agent-Antworten sicher und in Echtzeit in die Daten Ihrer Organisation ein.

Wann das Muster Bring Your Own Vektor Database (BYOVD) verwendet werden soll

Verwenden Sie BYOVD in folgenden Fällen:

  • Ihre Daten sind bereits in einem externen Vektorspeicher indiziert.
  • Sie möchten, dass Agents Zugriff auf aktuelles Unternehmenswissen erhalten.
  • Sie müssen das Kopieren oder Neuindizieren von Daten in UiPath vermeiden.
  • Sie erhalten die volle Kontrolle über Datenspeicher, Sicherheit und Einbettungen.

Wie es funktioniert

BYOVD ermöglicht es Agents, generative KI-Antworten in Ihren vertrauenswürdigen Datenquellen zu verankern. Anstatt sich auf einen integrierten Kontextgrundlagenindex zu verlassen, verwenden Sie API-Workflows , die Ihre externe Vektordatenbank sicher abfragen und relevanten Kontext an das große Sprachmodell des Agents zurückgeben.

Dieser Ansatz bietet Ihnen die Flexibilität, jede Vektordatenbank in eine öffentliche API zu integrieren und gleichzeitig die Kontrolle über Datenzugriff, Authentifizierung und Abruflogik zu behalten.

UiPath ermöglicht BYOVD über API-Workflows, die als Tools für Agents fungieren. Zur Laufzeit:

  1. Benutzerabfrage: Der Benutzer übermittelt eine Eingabeaufforderung an den Agenten.
  2. Toolauswahl: Das LLM des Agents bestimmt, dass zusätzlicher Kontext erforderlich ist, und wählt das benutzerdefinierte Vektorsuchtool aus.
  3. API-Workflowausführung: Der Agent ruft den veröffentlichten API-Workflow auf und übergibt die Abfrage des Benutzers als Eingabe.
  4. Vektorsuche: Der Workflow fragt die Vektordatenbank ab, um die semantisch relevantesten Inhalte abzurufen.
  5. Kontextrückgabe: Der Workflow gibt den abgerufenen Inhalt als strukturiertes JSON zurück.
  6. Antwortformulierung: Der Agent verwendet diesen Kontext, um eine fundierte, genaue Antwort zu generieren.

Dieser Ansatz unterstützt die Retrieval-Augmented-Generation (RAG), ohne dass eine native Erfassung in den Kontextgrundlage-Dienst erforderlich ist.

Architekturüberblick

Die BYOVD-Lösung besteht aus drei Hauptkomponenten:

  • Vektordatenbank: Ihr vorhandenes System (z. B. Databricks-vektorsuche oder Azure-AI-Suche).
  • API-Workflow: Ein UiPath Integration Service-Workflow, der:
    • Akzeptiert eine Abfrage.
    • Ruft die Vektordatenbank-API auf.
    • Gibt relevante Ergebnisse zurück.
  • Agententool: Der veröffentlichte API-Workflow, der als Tool hinzugefügt wurde, das der Agent aufrufen kann.

Sicherheits- und Anmeldeinformationsverwaltung

Bevor Sie den Workflow erstellen, speichern Sie alle API-Schlüssel und Geheimnisse sicher. Codieren Sie in Ihrem Workflow keine Anmeldeinformationen hart. Verwenden Sie stattdessen den Orchestrator-Anmeldeinformationsspeicher:

  • Anmeldeinformationen im Orchestrator speichern: Fügen Sie Ihre API-Schlüssel und andere geheime Schlüssel als Anmeldeinformationsassets in Ihrem Orchestrator-Mandanten hinzu. Dies bietet eine zentrale, sichere Verwaltung vertraulicher Informationen.
  • Anmeldeinformationen zur Laufzeit abrufen: Verwenden Sie in Ihrem API-Workflow die Aktivität Get Credential , um auf gespeicherte Anmeldeinformationen zuzugreifen, wenn der Workflow ausgeführt wird. Die Aktivität gibt den Benutzernamen als String und das Kennwort (z. B. einen API-Schlüssel) als SecureString zurück, wodurch verhindert wird, dass geheime Schlüssel in Protokollen oder Workflow-Definitionen offengelegt werden.

Voraussetzungen

Bevor Sie beginnen, stellen Sie sicher, dass Sie Folgendes haben:

  • Eine aktive Vektordatenbank (z. B. Databricks Vektor Search oder Azure AI Search) mit indizierten Daten.
  • Ein gültiger API-Endpunkt und Authentifizierungsanmeldeinformationen, die als Anmeldeinformationsassets im Orchestrator gespeichert sind.
  • Ein Endpunkt und Schlüssel des Einbettungsmodells, die ebenfalls sicher gespeichert sind (nur für die clientseitige Azure-vektorisierung.

Einrichten

Sie können BYOVD mit einem von drei Ansätzen implementieren: modellnative Endpunkte, clientseitige Vektorisierung (bei der der API-Workflow die Vektorisierung durchführt) oder integrierte Vektorisierung.

Die folgenden Abschnitte enthalten Schritt-für-Schritt-Anweisungen zum Konfigurieren der einzelnen Ansätze. Die Beispiele verwenden Databricks und Azure AI Search, aber das gleiche Muster gilt für andere Vektordatenbanken. Wählen Sie die Einrichtung, die der Art und Weise entspricht, wie Ihre Vektordatenbank die Abfragevektorisierung verarbeitet.

Databricks-vektorsuche (modellnativer Endpunkt)

Verwenden Sie diese Option, wenn Databricks die Vektorisierung von Abfragen nativ übernimmt.

Warum diese Option verwenden:

  • Eine einfache Konfiguration
  • Nur ein API-Aufruf pro Abfrage
  • Kein separates Einbettungsmodell erforderlich

Schritte

  1. Rufen Sie die Databricks-Details ab:
    1. Rufen Sie die Endpunkt-URL ab.
    2. Speichern Sie Ihr persönliches Zugriffstoken für Databricks als Anmeldeinformations-Asset im Orchestrator.
  2. Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
    • in_QueryText (String)
    • in_TopK (Int32, mit einem Standardwert von 5)
    • out_Results (String)
  3. Verwenden Sie die Aktivität Get Credential , um das persönliche Databricks-Zugriffstoken vom Orchestrator zur Laufzeit abzurufen.
  4. Fügen Sie eine HTTP Request- Aktivität hinzu, um den Databricks-Endpunkt aufzurufen:
    • Endpunkt: Der Endpunkt der Databricks-vektorsuche
    • Methode: POST
    • Header: Authorization: Bearer <Personal Access Token>
    • Textkörper: Erstellen Sie den von der Databricks-API erforderlichen JSON-Textkörper und ordnen Sie Ihre Eingabevariablen zu.
  5. Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
  6. Fügen Sie den Workflow als Tool zu Ihrem Agent hinzu und geben Sie einen klaren Namen und eine Beschreibung für das zu verwendende LLM an.

Azure AI Search (clientseitige Vektorisierung)

Verwenden Sie diese Option, wenn Ihr Azure AI Search-Index Vektoreingaben erwartet.

Warum diese Option verwenden:

  • Volle Kontrolle über das Einbetten von Modellen
  • Kompatibilität mit vorhandenen Vektorindizes

Schritte

  1. Rufen Sie die API-Details ab:
    • Für Azure AI Search: Rufen Sie die Endpunkt-URL und den Indexnamen ab und speichern Sie Ihren API-Schlüssel als Anmeldeinformations-Asset im Orchestrator.
    • Für das Einbettungsmodell: Rufen Sie die Endpunkt-URL ab und speichern Sie den API-Schlüssel für Ihren Einbettungsdienst als Anmeldeinformations-Asset im Orchestrator.
  2. Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
    • in_QueryText (String)
    • in_TopK (Int32, mit einem Standardwert von 5)
    • out_Results (String)
  3. Vektorisieren Sie zunächst die Abfrage:
    1. Fügen Sie eine Get Credential- Aktivität hinzu, um den API-Schlüssel Ihres Einbettungsmodells abzurufen.
    2. Fügen Sie eine HTTP Request- Aktivität hinzu, um Ihr Einbettungsmodell mit dem in_QueryText aufzurufen.
    3. Deserialisieren Sie die JSON-Antwort und speichern Sie den resultierenden Einbettungsvektor in einer Variablen (z. B. queryVector).
  4. Azure AI Search abfragen:
    1. Fügen Sie eine Get Credential- Aktivität hinzu, um Ihren Azure AI Search-API-Schlüssel abzurufen.
    2. Fügen Sie eine HTTP Request- Aktivität hinzu und konfigurieren Sie sie wie folgt:
      • Endpunkt: Ihr Azure AI Search-Endpunkt.
      • Methode: POST.
      • Header: Fügen Sie einen api-key -Header mit Ihrer Azure AI Search API-Schlüsselvariablen wie folgt hinzu: api-key: <API key>.
      • Text: Erstellen Sie den JSON-Text für die Azure AI Search-vektorsuchabfrage und bebetten Sie Ihre queryVector -Variable.
  5. Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
  6. Fügen Sie den veröffentlichten Workflow als Tool zu Ihrem Agent hinzu und stellen Sie eine eindeutige Beschreibung für das zu verwendende LLM bereit.

Azure AI Search (integrierte Vektorisierung)

Verwenden Sie diese Option, wenn Ihr Azure AI Search-Index die integrierte Vektorisierung unterstützt.

Warum diese Option verwenden:

  • Einfachstes Azure-Setup
  • Keine Einbettungsaufrufe in den Workflow
  • Einzelne API-Anforderung pro Abfrage

Schritte

  1. Rufen Sie die API-Details ab:
    • Rufen Sie Ihre Azure AI Search-Endpunkt-URL und den Indexnamen ab und speichern Sie Ihren API-Schlüssel als Anmeldeinformations-Asset im Orchestrator.
  2. Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
    • in_QueryText (String)
    • in_TopK (Int32, mit einem Standardwert von 5)
    • out_Results (String)
  3. Fügen Sie eine Get Credential- Aktivität hinzu, um Ihren Azure AI Search API-Schlüssel vom Orchestrator abzurufen.
  4. Fügen Sie eine HTTP Request- Aktivität hinzu und konfigurieren Sie sie wie folgt:
    • Endpunkt:
      https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01
      https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01
      
    • Methode: POST
    • Header: Fügen Sie einen api-key -Header mit Ihrer Azure AI Search API-Schlüsselvariablen wie folgt hinzu: api-key: <API key>
    • Textkörper: Konstruieren Sie den JSON-Text, um eine Vektorsuche mit dem Abfragetext durchzuführen. Azure AI Search verarbeitet die Vektorisierung automatisch.
      {
        "vectorQueries": [
          {
            "kind": "text",
            "text": "<%= in_QueryText %>",
            "fields": "contentVector",
            "k": "<%= in_TopK %>"
          }
        ],
        "select": "chunk, source_document"
      }
      {
        "vectorQueries": [
          {
            "kind": "text",
            "text": "<%= in_QueryText %>",
            "fields": "contentVector",
            "k": "<%= in_TopK %>"
          }
        ],
        "select": "chunk, source_document"
      }
      
  5. Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
  6. Fügen Sie den veröffentlichten Workflow als Tool zu Ihrem Agent hinzu und stellen Sie eine eindeutige Beschreibung für das LLM bereit.

Häufig gestellte Fragen

Was ist Kontextgrundlage?

Kontextgrundlage ist eine neue UiPath®-Funktion, die Teil der AI Trust Layer ist. Sie bietet einen Mechanismus zum Suchen und Abrufen von relevantem Kontext aus Daten, um Eingabeaufforderungen zu verankern und die präzisere Generierung aus großen Sprachmodellen (LLMs) über UiPath GenAI-Funktionen und -Produkte zu steuern.

Warum ist Kontextgrundlage wichtig?

Kontextgrundlage liefert Nachweise über von Benutzern bereitgestellte Daten an LLMs, um ihre Generationen zu beeinflussen. Dadurch werden Vorhersagen besser auf Ihre Anwendungsfälle und Daten zugeschnitten als auf den allgemeinen Daten, auf denen LLMs trainiert werden. Dadurch können sowohl Attended- als auch Unattended-Automatisierungen, die GenAI nutzen, genauer und präziser sein.

Wie funktioniert Kontextgrundlage?

Kontextgrundlage bietet zwei Dienste:

  • Verwaltete Vektor-DB als Service: Wir machen es Ihnen einfach, Ihre Daten in Einbettungsdarstellungen zu konvertieren.
  • Retrieval Augmented Generation (RAG) as a Service: Kontextgrundlage fragt Daten von verschiedenen Automatisierungsprodukten ab, ruft die relevantesten Ergebnisse ab und erweitert Prompts mit diesen Ergebnissen, um sicherzustellen, dass die Generierungen spezifischer sind.

Wie verwende ich Kontextgrundlage?

Sie können Kontextgrundlage über UiPath GenAI-Aktivitäten, Autopilot for Everyone und Agents nutzen.

Beseitigt Kontextgrundlage Wahrsagen?

Nein, aber sie reduziert die Wahrscheinlichkeit von Wahrsagen erheblich, da die Generationen auf Informationen basieren, die aus den vom Benutzer bereitgestellten Daten abgefragt werden. Standardmäßig liefert Kontextgrundlage ein Zitat oder einen Wissensbeweis, auf dem die Generierung basiert. Das bedeutet, dass Sie die Quelle überprüfen und validieren können. Wenn Kontextgrundlage nicht in der Lage ist, eine entsprechende Antwort mit hoher Zuverlässigkeit in den bereitgestellten Daten zu finden, versucht es nicht, Antworten zu erfinden. Stattdessen wird eine Antwort generiert, z. B. „Es konnte keine Antwort gefunden werden“.

Haben Sie Zugriff auf Kontextgrundlage?

Kontextgrundlage ist für alle Mandanten und Organisationen zugänglich.

Weitere Informationen zur Datenaufbewahrung finden Sie auf der Seite Datenaufbewahrung.

Wie wird Kontextgrundlage lizenziert?

Kontextgrundlage berechnet für Suchvorgänge oder RAG, da sie über die unterstützten UiPath-Produktoberflächen ausgeführt wird. Weitere Informationen dazu finden Sie unter Lizenzierung von Kontextgrundlage.

Ist Kontextgrundlage nur in Cloud-Bereitstellungen verfügbar?

Ab Version 2.2510 ist Kontextgrundlage auch in der Automation Suite verfügbar.

Welche Datentypen kann ich in Kontextgrundlage verwenden?

Kontextgrundlage funktioniert derzeit in den folgenden Datenformaten: PDF, JSON, CSV, DOCX, TXT, XLS.

Kann ich zusätzliche Geschäftsdaten in Kontextgrundlage importieren?

Um die Kontextgrundlage zu nutzen, müssen Sie Daten in UiPath Orchestrator-Speicherbuckets oder -Indizes importieren. Sie können dann Kontextgrundlagen-Aktivitäten verwenden, um die abgefragten Daten zu erfassen und zu indizieren sowie zu verwalten, um hochrelevante Ergebnisse sicherzustellen.

Gibt es eine Begrenzung für die Datenmenge, die ich in Kontextgrundlage aufnehmen kann?

Das Datenlimit, das Sie zum Erstellen Ihrer Aufforderungen verwenden können, basiert auf den Größenbeschränkungen der Token für das Modellkontextfenster. Beziehen Sie sich auf das Modell, das Sie zum Ausführen der RAG verwenden (z. B. in GenAI-Aktivitäten), um potenzielle Schwellenwerte für Tokenlimits zu bestimmen.

  • Indexlimit: Es gibt ein Limit von zehn Indizes pro Mandant. Wir empfehlen Ihnen, eine 1:1-Beziehung zwischen Orchestrator-Buckets beizubehalten, aus denen Sie Daten erfassen, um Datenverluste zwischen Ordnern zu verhindern und eine logische Trennung von Daten sicherzustellen, die von verschiedenen Benutzern für unterschiedliche Zwecke abgefragt werden müssen. Kontextgrundlage nutzt die Berechtigungen der Ordnerautorisierung, um diese Empfehlung zu erzwingen.
  • Speicher: Es gibt keine Beschränkung für den Speicher über oder innerhalb dieser Indizes. Wir führen jedoch einige Einschränkungen für Kunden ein, die übermäßig große Datenmengen erfasst haben.

Ist Kontextgrundlage mit RAG identisch?

Kontextgrundlage bietet einen RAG-Dienst zur Laufzeit für UiPath GenAI-Erfahrungen. Sie bietet jedoch auch eine verwaltete Vektordatenbank als Dienst, um die Verwaltung der zur Laufzeit verwendeten Daten zu erleichtern. Das garantiert eine hochwertige Suche und generierte Ergebnisse.

Wie werden meine Daten für Kontextgrundlage gespeichert oder freigegeben?

Alle an UiPath weitergegebenen Daten werden mit den standardmäßigen Compliance-, Verschlüsselungs- und Sicherheitsstandards für Unternehmen behandelt.

Kontextgrundlage ist Teil des AI Trust Layer, was bedeutet, dass Ihre Daten niemals außerhalb von UiPath gespeichert werden und auch nicht zum Trainieren von Modellen von Drittanbietern verwendet werden.

Wie gewährleistet man die Datensicherheit?

Kontextgrundlage ist mandantenbezogen und nutzt die vorhandenen RBAC- und AuthZ-Richtlinien in UiPath zusätzlich zur Verschlüsselung von Daten im Ruhezustand und bei der Übertragung.

Da es sich um einen Mandanten-Scope handelt, werden keine Daten über Indizes innerhalb desselben Mandanten oder zwischen Mandanten hinweg freigegeben.

Wie wird Kontextgrundlage berechtigt?

Kontextgrundlage hat Mandanten-Scope. Wir unterstützen die Autorisierung auf Ordnerebene in Orchestrator-Buckets und Kontextgrundlage nutzt vorhandene Authentifizierungs- und Automation Ops-Richtlinien, die auf die GenAI-Aktivitäten angewendet werden.

Kann ich dynamisch auswählen, welches LLM verwendet werden soll?

In den UiPath GenAI-Aktivitäten können Sie auswählen, welches LLM zum Ausführen des RAG-Anteils verwendet werden soll, den die Kontextgrundlage unterstützt. Sie können ein beliebiges LLM auswählen, das im LLM-Gateway verfügbar ist. UiPath verwaltet dann die Strategien zur Erfassung und semantischen Suche, um die Generierung zu optimieren.

War diese Seite hilfreich?

Verbinden

Benötigen Sie Hilfe? Support

Möchten Sie lernen? UiPath Academy

Haben Sie Fragen? UiPath-Forum

Auf dem neuesten Stand bleiben