UiPath Documentation
test-cloud
latest
false
Wichtig :
Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Test Cloud-Administratorhandbuch

Letzte Aktualisierung 7. Apr. 2026

Bring your own vector database

Nutzen Sie Ihre vorhandene Vektordatenbank, um Agentenantworten in vertrauenswürdigen Unternehmensdaten zu verankern, ohne Inhalte zu duplizieren oder Ihre aktuelle Architektur zu ändern.

Diese Anleitung zeigt, wie Sie extern verwaltete Vektordatenbanken (z. B. Databricks Vektor Search oder Azure AI Search) mithilfe von API-Workflows mit UiPath-Agenten verbinden und so eine Retrieval Augmented Generation (RAG) mit Ihren eigenen Datenquellen ermöglichen.

Am Ende dieser Anleitung werden Sie in der Lage sein:

  • Fragen Sie eine externe Vektordatenbank von einem UiPath-Agent ab.
  • Gibt den relevantesten Inhalt als strukturierten Kontext zurück.
  • Ground agent responses in your organization's data securely and in real time.

Wann das Muster Bring Your Own Vektor Database (BYOVD) verwendet werden soll

Verwenden Sie BYOVD in folgenden Fällen:

  • Ihre Daten sind bereits in einem externen Vektorspeicher indiziert.
  • Sie möchten, dass Agents Zugriff auf aktuelles Unternehmenswissen erhalten.
  • Sie müssen das Kopieren oder Neuindizieren von Daten in UiPath vermeiden.
  • Sie erhalten die volle Kontrolle über Datenspeicher, Sicherheit und Einbettungen.

Wie es funktioniert

BYOVD allows agents to ground generative AI responses in your trusted data sources. Instead of relying on a built-in Context Grounding index, you use API workflows that securely query your external vector database and return relevant context to the agent's large language model.

Dieser Ansatz bietet Ihnen die Flexibilität, jede Vektordatenbank in eine öffentliche API zu integrieren und gleichzeitig die Kontrolle über Datenzugriff, Authentifizierung und Abruflogik zu behalten.

UiPath ermöglicht BYOVD über API-Workflows, die als Tools für Agents fungieren. Zur Laufzeit:

  1. Benutzerabfrage: Der Benutzer übermittelt eine Eingabeaufforderung an den Agenten.
  2. Tool selection: The agent's LLM determines that additional context is required and selects the custom vector search tool.
  3. API Workflow execution: The agent invokes the published API Workflow, passing the user's query as input.
  4. Vektorsuche: Der Workflow fragt die Vektordatenbank ab, um die semantisch relevantesten Inhalte abzurufen.
  5. Context return: The workflow returns the retrieved content as structured JSON.
  6. Antwortformulierung: Der Agent verwendet diesen Kontext, um eine fundierte, genaue Antwort zu generieren.

Dieser Ansatz unterstützt die Retrieval-Augmented-Generation (RAG), ohne dass eine native Erfassung in den Kontextgrundlage-Dienst erforderlich ist.

Architekturüberblick

Die BYOVD-Lösung besteht aus drei Hauptkomponenten:

  • Vektordatenbank: Ihr vorhandenes System (z. B. Databricks-vektorsuche oder Azure-AI-Suche).
  • API-Workflow: Ein UiPath Integration Service-Workflow, der:
    • Akzeptiert eine Abfrage.
    • Ruft die Vektordatenbank-API auf.
    • Gibt relevante Ergebnisse zurück.
  • Agententool: Der veröffentlichte API-Workflow, der als Tool hinzugefügt wurde, das der Agent aufrufen kann.

Sicherheits- und Anmeldeinformationsverwaltung

Bevor Sie den Workflow erstellen, speichern Sie alle API-Schlüssel und Geheimnisse sicher. Codieren Sie in Ihrem Workflow keine Anmeldeinformationen hart. Verwenden Sie stattdessen den Orchestrator-Anmeldeinformationsspeicher:

  • Anmeldeinformationen im Orchestrator speichern: Fügen Sie Ihre API-Schlüssel und andere geheime Schlüssel als Anmeldeinformationsassets in Ihrem Orchestrator-Mandanten hinzu. Dies bietet eine zentrale, sichere Verwaltung vertraulicher Informationen.
  • Anmeldeinformationen zur Laufzeit abrufen: Verwenden Sie in Ihrem API-Workflow die Aktivität Get Credential , um auf gespeicherte Anmeldeinformationen zuzugreifen, wenn der Workflow ausgeführt wird. Die Aktivität gibt den Benutzernamen als String und das Kennwort (z. B. einen API-Schlüssel) als SecureString zurück, wodurch verhindert wird, dass geheime Schlüssel in Protokollen oder Workflow-Definitionen offengelegt werden.

Voraussetzungen

Bevor Sie beginnen, stellen Sie sicher, dass Sie Folgendes haben:

  • Eine aktive Vektordatenbank (z. B. Databricks Vektor Search oder Azure AI Search) mit indizierten Daten.
  • Ein gültiger API-Endpunkt und Authentifizierungsanmeldeinformationen, die als Anmeldeinformationsassets im Orchestrator gespeichert sind.
  • Ein Endpunkt und Schlüssel des Einbettungsmodells, die ebenfalls sicher gespeichert sind (nur für die clientseitige Azure-vektorisierung.

Einrichten

Sie können BYOVD mit einem von drei Ansätzen implementieren: modellnative Endpunkte, clientseitige Vektorisierung (bei der der API-Workflow die Vektorisierung durchführt) oder integrierte Vektorisierung.

Die folgenden Abschnitte enthalten Schritt-für-Schritt-Anweisungen zum Konfigurieren der einzelnen Ansätze. Die Beispiele verwenden Databricks und Azure AI Search, aber das gleiche Muster gilt für andere Vektordatenbanken. Wählen Sie die Einrichtung, die der Art und Weise entspricht, wie Ihre Vektordatenbank die Abfragevektorisierung verarbeitet.

Databricks-vektorsuche (modellnativer Endpunkt)

Verwenden Sie diese Option, wenn Databricks die Vektorisierung von Abfragen nativ übernimmt.

Warum diese Option verwenden:

  • Eine einfache Konfiguration
  • Nur ein API-Aufruf pro Abfrage
  • Kein separates Einbettungsmodell erforderlich

Schritte

  1. Rufen Sie die Databricks-Details ab:
    1. Rufen Sie die Endpunkt-URL ab.
    2. Speichern Sie Ihr persönliches Zugriffstoken für Databricks als Anmeldeinformations-Asset im Orchestrator.
  2. Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
    • in_QueryText (String)
    • in_TopK (Int32, mit einem Standardwert von 5)
    • out_Results (String)
  3. Verwenden Sie die Aktivität Get Credential , um das persönliche Databricks-Zugriffstoken vom Orchestrator zur Laufzeit abzurufen.
  4. Fügen Sie eine HTTP Request- Aktivität hinzu, um den Databricks-Endpunkt aufzurufen:
    • Endpunkt: Der Endpunkt der Databricks-vektorsuche
    • Methode: POST
    • Header: Authorization: Bearer <Personal Access Token>
    • Textkörper: Erstellen Sie den von der Databricks-API erforderlichen JSON-Textkörper und ordnen Sie Ihre Eingabevariablen zu.
  5. Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
  6. Fügen Sie den Workflow als Tool zu Ihrem Agent hinzu und geben Sie einen klaren Namen und eine Beschreibung für das zu verwendende LLM an.

Azure AI Search (clientseitige Vektorisierung)

Verwenden Sie diese Option, wenn Ihr Azure AI Search-Index Vektoreingaben erwartet.

Warum diese Option verwenden:

  • Volle Kontrolle über das Einbetten von Modellen
  • Kompatibilität mit vorhandenen Vektorindizes

Schritte

  1. Rufen Sie die API-Details ab:
    • Für Azure AI Search: Rufen Sie die Endpunkt-URL und den Indexnamen ab und speichern Sie Ihren API-Schlüssel als Anmeldeinformations-Asset im Orchestrator.
    • Für das Einbettungsmodell: Rufen Sie die Endpunkt-URL ab und speichern Sie den API-Schlüssel für Ihren Einbettungsdienst als Anmeldeinformations-Asset im Orchestrator.
  2. Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
    • in_QueryText (String)
    • in_TopK (Int32, mit einem Standardwert von 5)
    • out_Results (String)
  3. Vektorisieren Sie zunächst die Abfrage:
    1. Fügen Sie eine Get Credential- Aktivität hinzu, um den API-Schlüssel Ihres Einbettungsmodells abzurufen.
    2. Fügen Sie eine HTTP Request- Aktivität hinzu, um Ihr Einbettungsmodell mit dem in_QueryText aufzurufen.
    3. Deserialisieren Sie die JSON-Antwort und speichern Sie den resultierenden Einbettungsvektor in einer Variablen (z. B. queryVector).
  4. Azure AI Search abfragen:
    1. Fügen Sie eine Get Credential- Aktivität hinzu, um Ihren Azure AI Search-API-Schlüssel abzurufen.
    2. Fügen Sie eine HTTP Request- Aktivität hinzu und konfigurieren Sie sie wie folgt:
      • Endpunkt: Ihr Azure AI Search-Endpunkt.
      • Method: POST.
      • Headers: Add an api-key header with your Azure AI Search API key variable, as follows: api-key: <API key>.
      • Body: Construct the JSON body for the Azure AI Search vector search query, embedding your queryVector variable.
  5. Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
  6. Fügen Sie den veröffentlichten Workflow als Tool zu Ihrem Agent hinzu und stellen Sie eine eindeutige Beschreibung für das zu verwendende LLM bereit.

Azure AI Search (integrierte Vektorisierung)

Verwenden Sie diese Option, wenn Ihr Azure AI Search-Index die integrierte Vektorisierung unterstützt.

Warum diese Option verwenden:

  • Einfachstes Azure-Setup
  • Keine Einbettungsaufrufe in den Workflow
  • Einzelne API-Anforderung pro Abfrage

Schritte

  1. Rufen Sie die API-Details ab:
    • Rufen Sie Ihre Azure AI Search-Endpunkt-URL und den Indexnamen ab und speichern Sie Ihren API-Schlüssel als Anmeldeinformations-Asset im Orchestrator.
  2. Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
    • in_QueryText (String)
    • in_TopK (Int32, mit einem Standardwert von 5)
    • out_Results (String)
  3. Fügen Sie eine Get Credential- Aktivität hinzu, um Ihren Azure AI Search API-Schlüssel vom Orchestrator abzurufen.
  4. Fügen Sie eine HTTP Request- Aktivität hinzu und konfigurieren Sie sie wie folgt:
    • Endpunkt:
      https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01
      https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01
      
    • Methode: POST
    • Header: Fügen Sie einen api-key -Header mit Ihrer Azure AI Search API-Schlüsselvariablen wie folgt hinzu: api-key: <API key>
    • Textkörper: Konstruieren Sie den JSON-Text, um eine Vektorsuche mit dem Abfragetext durchzuführen. Azure AI Search verarbeitet die Vektorisierung automatisch.
      {
        "vectorQueries": [
          {
            "kind": "text",
            "text": "<%= in_QueryText %>",
            "fields": "contentVector",
            "k": "<%= in_TopK %>"
          }
        ],
        "select": "chunk, source_document"
      }
      {
        "vectorQueries": [
          {
            "kind": "text",
            "text": "<%= in_QueryText %>",
            "fields": "contentVector",
            "k": "<%= in_TopK %>"
          }
        ],
        "select": "chunk, source_document"
      }
      
  5. Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
  6. Fügen Sie den veröffentlichten Workflow als Tool zu Ihrem Agent hinzu und stellen Sie eine eindeutige Beschreibung für das LLM bereit.

War diese Seite hilfreich?

Verbinden

Benötigen Sie Hilfe? Support

Möchten Sie lernen? UiPath Academy

Haben Sie Fragen? UiPath-Forum

Auf dem neuesten Stand bleiben