UiPath Documentation
test-cloud
latest
false

Test Cloud-Administratorhandbuch

Letzte Aktualisierung 6. Mai 2026

Arbeiten mit Kontextgrundlage

Dieser Abschnitt enthält Informationen zur effektiven Nutzung von Kontextgrundlage.

Erste Schritte

Um Kontextgrundlage mit Agents oder Autopilot for Everyone zu verwenden, erstellen Sie einen Index gemäß den unter Erstellen von Indizes beschriebenen Schritten.

Um Kontexterstellung mit Aktivitäten zu verwenden, erstellen Sie eine Verbindung mit dem UiPath GenAI-Aktivitätsconnector und stellen Sie sicher, dass Sie Studio Web oder Studio Desktop ab Version 2024.4 verwenden.

Verwalten der Erfassungspipeline

Sie können die Erfassungspipelines verwalten über:

  • Orchestrator oder Agents auf der Seite Indizes . Siehe Verwalten von Indizes.
  • Die Aktivität Update Context Grounding Index , Teil des UiPath GenAI-Aktivitätspakets.

Abfragen von Daten mit Kontextgrundlage

Nach der Erstellung eines Indexes im Orchestrator ist der Zugriff auf Indizes auf der gesamten UiPath-Plattform möglich. Diese Indizes dienen als persistenter Speicher für Dokumente, die aus Ihren Datenquellen erfasst wurden, und bieten eine wiederverwendbare Ressource für verschiedene UiPath-Produkte:

  • In Autopilot for Everyone verbessert Kontextgrundlage die Benutzerinteraktion, indem die Suche über vorhandene Indizes hinweg ermöglicht wird, um genaue Antworten auf Abfragen zu liefern. Weitere Informationen dazu finden Sie unter Kontextgrundlage in Autopilot for Everyone.
  • GenAI-Aktivitäten profitieren von der Kontextgrundlage, indem sie die Erstellung von Inhalten basierend auf Informationen ermöglichen, die in genehmigten Wissensdatenbanken gespeichert sind. Weitere Informationen dazu finden Sie unter GenAI-Aktivitäten.
  • Für Agents spielen Indizes eine entscheidende Rolle bei der Kontextbereitstellung während der Ausführungen. Weitere Information dazu finden Sie unter Kontexte.

Grundlage für den Überwachungskontext

Für die Optimierung der Leistung und die Fehlerbehebung ist es wichtig zu verstehen, wie Kontextgrundlage Ihre Workflows beeinflusst. Hier erfahren Sie, wie Sie Kontextgrundlagenausgaben in verschiedenen UiPath-Produkten nachverfolgen und anzeigen können.

Gehen Sie in Agents zu der Ansicht Ablaufverfolgung der Ausführung des Agents, um umfassende Details anzuzeigen. Diese Ansicht enthält alle Suchergebnisse und Zitate aus der Abfrage zur Kontextgrundlage und bietet Einblicke in den Entscheidungsprozess des Agents.

So sammeln Sie detaillierte Informationen über Kontextgrundlage in GenAI-Aktivitäten:

  1. Platzieren Sie eine Log Message- Aktivität direkt nach der Aktivität Content Generation in Ihrer Workflow-Sequence.
  2. Verwenden Sie die folgenden Ausgabevariablen, um bestimmte Informationen zu erfassen:
    • Am häufigsten generierter Text: Zeigt die Antwort der LLM-Generierung nach der Workflowausführung an.
    • Zitate: Untersuchen Sie die semantischen Suchergebnisse, die die Generierungsausgabe beeinflusst haben. Dies funktioniert nur für PDF- und JSON-Datentypen.

Kontextgrundlage in GenAI-Aktivitäten

Kontextgrundlage interagiert in drei Phasen mit Ihren Daten:

  1. Legen Sie Ihre Datenquelle für Kontextgrundlage fest.
    • Kontextgrundlage folgt den Berechtigungen für freigegebene Ordner. Verwenden Sie einen Ordner mit entsprechendem Zugriff zum Verwalten und Abfragen von Daten.
    • Erstellen Sie eine Verbindung mit den unterstützten Integration Service-Datenquellen, oder fügen Sie Daten zu einem freigegebenen Orchestrator-Bucket-Speicherort hinzu.
  2. Erfassen Sie Daten aus Ihrer Datenquelle in Kontextgrundlage.
    • Erstellen und synchronisieren Sie Indizes im Orchestrator.
    • Verwenden Sie die Aktivität Update Context Grounding Index, um einen von Ihnen erstellten Index zu synchronisieren.
  3. Abfragen und Verbindungsaufforderungen mit Ihren Daten.
    • Verwenden Sie die Aktivität Content Generation, Agents oder Autopilot for Everyone, um Dokumente abzufragen und Informationen zu verwenden, um Eingabeaufforderungen zu erweitern oder zu Grunde zu legen.

Allgemeine Muster der Kontextgrundlage

Die Kernkomponenten von Kontextgrundlage sind so konzipiert, dass sie einen Mechanismus bereitstellen, der die Suche nach relevanten Informationen innerhalb und zwischen Dokumenten unterstützt und nur die relevantesten Teile anzeigt, die für eine hochwertige Generierung mit geringer Latenz aus einem LLM erforderlich sind.

Suchen in Dokumenten

Der Dienst Kontextgrundlage hilft Ihnen, bestimmte Informationen innerhalb eines einzelnen Dokuments effektiver zu finden. Anstatt nur Schlüsselwörter abzugleichen, versteht sie die Bedeutung und den Kontext Ihrer Suchanfrage. Wenn Sie beispielsweise nach Informationen über „Apfeltorte-Rezepte“ in einem Backbuch suchen, wird deutlich, dass Sie sich für Nachdesserts und Backen und nicht für Technologie oder Obstanbau interessieren.

Durchsuchen von Dokumenten

Kontextgrundlage hilft Ihnen, Informationen zu finden, die über mehrere Dokumente verteilt sind. Sie kann die Beziehungen zwischen verschiedenen Informationen verstehen und relevantere Ergebnisse liefern. Wenn Sie beispielsweise die „Auswirkungen des Klickens auf die Landarbeit“ in verschiedenen wissenschaftlichen Arbeiten untersuchen, werden relevante Informationen aus mehreren Quellen zusammengeführt, um zu berücksichtigen, dass Themen wie Einfluss des Einflusses des Klickens, Feldernte und Temperaturänderungen mit Ihrer Abfrage zusammenhängen.

Das bedeutet, dass Sie Kontextgrundlage verwenden können für:

  • Datenextraktion und Vergleich: Die Kontextgrundlage kann bestimmte Informationstypen aus Dokumenten automatisch identifizieren und extrahieren und sie dann auf aussagekräftige Weise vergleichen. Stellen Sie sich vor, Sie haben einen Stapel von Lebensläufen und möchten die Arbeitserfahrungen von Kandidaten vergleichen. Der Dienst könnte Berufsbezeichnungen, Dauern und Verantwortlichkeiten extrahieren und sie dann auf eine Weise präsentieren, die einen Vergleich erleichtert, auch wenn die Informationen in jedem Résumé anders formatiert sind.
  • Zusammenfassung: Die Kontextgrundlage kann Zusammenfassungen von langen Dokumenten oder mehreren zugehörigen Dokumenten erstellen. Es wählt keine zufälligen Sätze aus, versteht aber die wichtigsten Punkte und die Gesamtaussage. Wenn Sie beispielsweise einen langen Bericht über Markttrends haben, kann der Dienst eine Zusammenfassung bereitstellen, in der die wichtigsten Ergebnisse, wichtigsten Statistiken und allgemeinen Schlussfolgerungen hervorgehoben werden.

Benachrichtigungen

Sie können abonnieren, um Benachrichtigungen von Kontextgrundlage zu erhalten. Im Benachrichtigungsbereich erfahren Sie mehr.

Ereignisse dienen als Trigger für Benachrichtigungen. Die Kontextgrundlagen-Ereignisse, die Benachrichtigungen generieren, sind:

  • Erfassungsauftrag abgeschlossen
  • Erfassungsauftrag fehlgeschlagen
  • Erfassungsauftrag gestartet

Sie können auch Ereignisse basierend auf ihrem Schweregrad abonnieren, z. B. Erfolg oder Fehler.

Bringen Sie Ihre eigene Vektordatenbank mit

Nutzen Sie Ihre vorhandene Vektordatenbank, um Agentenantworten in vertrauenswürdigen Unternehmensdaten zu verankern, ohne Inhalte zu duplizieren oder Ihre aktuelle Architektur zu ändern.

Diese Anleitung zeigt, wie Sie extern verwaltete Vektordatenbanken (z. B. Databricks Vektor Search oder Azure AI Search) mithilfe von API-Workflows mit UiPath-Agenten verbinden und so eine Retrieval Augmented Generation (RAG) mit Ihren eigenen Datenquellen ermöglichen.

Am Ende dieser Anleitung werden Sie in der Lage sein:

  • Fragen Sie eine externe Vektordatenbank von einem UiPath-Agent ab.
  • Gibt den relevantesten Inhalt als strukturierten Kontext zurück.
  • Legen Sie Agent-Antworten sicher und in Echtzeit in die Daten Ihrer Organisation ein.

Wann das Muster Bring Your Own Vektor Database (BYOVD) verwendet werden soll

Verwenden Sie BYOVD in folgenden Fällen:

  • Ihre Daten sind bereits in einem externen Vektorspeicher indiziert.
  • Sie möchten, dass Agents Zugriff auf aktuelles Unternehmenswissen erhalten.
  • Sie müssen das Kopieren oder Neuindizieren von Daten in UiPath vermeiden.
  • Sie erhalten die volle Kontrolle über Datenspeicher, Sicherheit und Einbettungen.

Wie es funktioniert

BYOVD ermöglicht es Agents, generative KI-Antworten in Ihren vertrauenswürdigen Datenquellen zu verankern. Anstatt sich auf einen integrierten Kontextgrundlagenindex zu verlassen, verwenden Sie API-Workflows , die Ihre externe Vektordatenbank sicher abfragen und relevanten Kontext an das große Sprachmodell des Agents zurückgeben.

Dieser Ansatz bietet Ihnen die Flexibilität, jede Vektordatenbank in eine öffentliche API zu integrieren und gleichzeitig die Kontrolle über Datenzugriff, Authentifizierung und Abruflogik zu behalten.

UiPath ermöglicht BYOVD über API-Workflows, die als Tools für Agents fungieren. Zur Laufzeit:

  1. Benutzerabfrage: Der Benutzer übermittelt eine Eingabeaufforderung an den Agenten.
  2. Toolauswahl: Das LLM des Agents bestimmt, dass zusätzlicher Kontext erforderlich ist, und wählt das benutzerdefinierte Vektorsuchtool aus.
  3. API-Workflowausführung: Der Agent ruft den veröffentlichten API-Workflow auf und übergibt die Abfrage des Benutzers als Eingabe.
  4. Vektorsuche: Der Workflow fragt die Vektordatenbank ab, um die semantisch relevantesten Inhalte abzurufen.
  5. Kontextrückgabe: Der Workflow gibt den abgerufenen Inhalt als strukturiertes JSON zurück.
  6. Antwortformulierung: Der Agent verwendet diesen Kontext, um eine fundierte, genaue Antwort zu generieren.

Dieser Ansatz unterstützt die Retrieval-Augmented-Generation (RAG), ohne dass eine native Erfassung in den Kontextgrundlage-Dienst erforderlich ist.

Architekturüberblick

Die BYOVD-Lösung besteht aus drei Hauptkomponenten:

  • Vektordatenbank: Ihr vorhandenes System (z. B. Databricks-vektorsuche oder Azure-AI-Suche).
  • API-Workflow: Ein UiPath Integration Service-Workflow, der:
    • Akzeptiert eine Abfrage.
    • Ruft die Vektordatenbank-API auf.
    • Gibt relevante Ergebnisse zurück.
  • Agententool: Der veröffentlichte API-Workflow, der als Tool hinzugefügt wurde, das der Agent aufrufen kann.

Sicherheits- und Anmeldeinformationsverwaltung

Bevor Sie den Workflow erstellen, speichern Sie alle API-Schlüssel und Geheimnisse sicher. Codieren Sie in Ihrem Workflow keine Anmeldeinformationen hart. Verwenden Sie stattdessen den Orchestrator-Anmeldeinformationsspeicher:

  • Anmeldeinformationen im Orchestrator speichern: Fügen Sie Ihre API-Schlüssel und andere geheime Schlüssel als Anmeldeinformationsassets in Ihrem Orchestrator-Mandanten hinzu. Dies bietet eine zentrale, sichere Verwaltung vertraulicher Informationen.
  • Anmeldeinformationen zur Laufzeit abrufen: Verwenden Sie in Ihrem API-Workflow die Aktivität Get Credential , um auf gespeicherte Anmeldeinformationen zuzugreifen, wenn der Workflow ausgeführt wird. Die Aktivität gibt den Benutzernamen als String und das Kennwort (z. B. einen API-Schlüssel) als SecureString zurück, wodurch verhindert wird, dass geheime Schlüssel in Protokollen oder Workflow-Definitionen offengelegt werden.

Voraussetzungen

Bevor Sie beginnen, stellen Sie sicher, dass Sie Folgendes haben:

  • Eine aktive Vektordatenbank (z. B. Databricks Vektor Search oder Azure AI Search) mit indizierten Daten.
  • Ein gültiger API-Endpunkt und Authentifizierungsanmeldeinformationen, die als Anmeldeinformationsassets im Orchestrator gespeichert sind.
  • Ein Endpunkt und Schlüssel des Einbettungsmodells, die ebenfalls sicher gespeichert sind (nur für die clientseitige Azure-vektorisierung.

Einrichten

Sie können BYOVD mit einem von drei Ansätzen implementieren: modellnative Endpunkte, clientseitige Vektorisierung (bei der der API-Workflow die Vektorisierung durchführt) oder integrierte Vektorisierung.

Die folgenden Abschnitte enthalten Schritt-für-Schritt-Anweisungen zum Konfigurieren der einzelnen Ansätze. Die Beispiele verwenden Databricks und Azure AI Search, aber das gleiche Muster gilt für andere Vektordatenbanken. Wählen Sie die Einrichtung, die der Art und Weise entspricht, wie Ihre Vektordatenbank die Abfragevektorisierung verarbeitet.

Databricks-vektorsuche (modellnativer Endpunkt)

Verwenden Sie diese Option, wenn Databricks die Vektorisierung von Abfragen nativ übernimmt.

Warum diese Option verwenden:

  • Eine einfache Konfiguration
  • Nur ein API-Aufruf pro Abfrage
  • Kein separates Einbettungsmodell erforderlich

Schritte

  1. Rufen Sie die Databricks-Details ab:
    1. Rufen Sie die Endpunkt-URL ab.
    2. Speichern Sie Ihr persönliches Zugriffstoken für Databricks als Anmeldeinformations-Asset im Orchestrator.
  2. Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
    • in_QueryText (String)
    • in_TopK (Int32, mit einem Standardwert von 5)
    • out_Results (String)
  3. Verwenden Sie die Aktivität Get Credential , um das persönliche Databricks-Zugriffstoken vom Orchestrator zur Laufzeit abzurufen.
  4. Fügen Sie eine HTTP Request- Aktivität hinzu, um den Databricks-Endpunkt aufzurufen:
    • Endpunkt: Der Endpunkt der Databricks-vektorsuche
    • Methode: POST
    • Header: Authorization: Bearer <Personal Access Token>
    • Textkörper: Erstellen Sie den von der Databricks-API erforderlichen JSON-Textkörper und ordnen Sie Ihre Eingabevariablen zu.
  5. Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
  6. Fügen Sie den Workflow als Tool zu Ihrem Agent hinzu und geben Sie einen klaren Namen und eine Beschreibung für das zu verwendende LLM an.

Azure AI Search (clientseitige Vektorisierung)

Verwenden Sie diese Option, wenn Ihr Azure AI Search-Index Vektoreingaben erwartet.

Warum diese Option verwenden:

  • Volle Kontrolle über das Einbetten von Modellen
  • Kompatibilität mit vorhandenen Vektorindizes

Schritte

  1. Rufen Sie die API-Details ab:
    • Für Azure AI Search: Rufen Sie die Endpunkt-URL und den Indexnamen ab und speichern Sie Ihren API-Schlüssel als Anmeldeinformations-Asset im Orchestrator.
    • Für das Einbettungsmodell: Rufen Sie die Endpunkt-URL ab und speichern Sie den API-Schlüssel für Ihren Einbettungsdienst als Anmeldeinformations-Asset im Orchestrator.
  2. Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
    • in_QueryText (String)
    • in_TopK (Int32, mit einem Standardwert von 5)
    • out_Results (String)
  3. Vektorisieren Sie zunächst die Abfrage:
    1. Fügen Sie eine Get Credential- Aktivität hinzu, um den API-Schlüssel Ihres Einbettungsmodells abzurufen.
    2. Fügen Sie eine HTTP Request- Aktivität hinzu, um Ihr Einbettungsmodell mit dem in_QueryText aufzurufen.
    3. Deserialisieren Sie die JSON-Antwort und speichern Sie den resultierenden Einbettungsvektor in einer Variablen (z. B. queryVector).
  4. Azure AI Search abfragen:
    1. Fügen Sie eine Get Credential- Aktivität hinzu, um Ihren Azure AI Search-API-Schlüssel abzurufen.
    2. Fügen Sie eine HTTP Request- Aktivität hinzu und konfigurieren Sie sie wie folgt:
      • Endpunkt: Ihr Azure AI Search-Endpunkt.
      • Methode: POST.
      • Header: Fügen Sie einen api-key -Header mit Ihrer Azure AI Search API-Schlüsselvariablen wie folgt hinzu: api-key: <API key>.
      • Text: Erstellen Sie den JSON-Text für die Azure AI Search-vektorsuchabfrage und bebetten Sie Ihre queryVector -Variable.
  5. Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
  6. Fügen Sie den veröffentlichten Workflow als Tool zu Ihrem Agent hinzu und stellen Sie eine eindeutige Beschreibung für das zu verwendende LLM bereit.

Azure AI Search (integrierte Vektorisierung)

Verwenden Sie diese Option, wenn Ihr Azure AI Search-Index die integrierte Vektorisierung unterstützt.

Warum diese Option verwenden:

  • Einfachstes Azure-Setup
  • Keine Einbettungsaufrufe in den Workflow
  • Einzelne API-Anforderung pro Abfrage

Schritte

  1. Rufen Sie die API-Details ab:
    • Rufen Sie Ihre Azure AI Search-Endpunkt-URL und den Indexnamen ab und speichern Sie Ihren API-Schlüssel als Anmeldeinformations-Asset im Orchestrator.
  2. Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
    • in_QueryText (String)
    • in_TopK (Int32, mit einem Standardwert von 5)
    • out_Results (String)
  3. Fügen Sie eine Get Credential- Aktivität hinzu, um Ihren Azure AI Search API-Schlüssel vom Orchestrator abzurufen.
  4. Fügen Sie eine HTTP Request- Aktivität hinzu und konfigurieren Sie sie wie folgt:
    • Endpunkt:
      https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01
      https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01
      
    • Methode: POST
    • Header: Fügen Sie einen api-key -Header mit Ihrer Azure AI Search API-Schlüsselvariablen wie folgt hinzu: api-key: <API key>
    • Textkörper: Konstruieren Sie den JSON-Text, um eine Vektorsuche mit dem Abfragetext durchzuführen. Azure AI Search verarbeitet die Vektorisierung automatisch.
      {
        "vectorQueries": [
          {
            "kind": "text",
            "text": "<%= in_QueryText %>",
            "fields": "contentVector",
            "k": "<%= in_TopK %>"
          }
        ],
        "select": "chunk, source_document"
      }
      {
        "vectorQueries": [
          {
            "kind": "text",
            "text": "<%= in_QueryText %>",
            "fields": "contentVector",
            "k": "<%= in_TopK %>"
          }
        ],
        "select": "chunk, source_document"
      }
      
  5. Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
  6. Fügen Sie den veröffentlichten Workflow als Tool zu Ihrem Agent hinzu und stellen Sie eine eindeutige Beschreibung für das LLM bereit.

War diese Seite hilfreich?

Verbinden

Benötigen Sie Hilfe? Support

Möchten Sie lernen? UiPath Academy

Haben Sie Fragen? UiPath-Forum

Auf dem neuesten Stand bleiben