- Erste Schritte
- Hostverwaltung
- Organisationen
- Mandanten und Dienste
- Authentifizierung und Sicherheit
- Lizenzierung
- Über die Lizenzierung
- Einheitliche Preise: Lizenzierungsplan-Framework
- Aktivieren Ihrer Lizenz
- Zuweisen von Lizenzen zu Mandanten
- Zuweisen von Benutzerlizenzen
- Freigegeben von Benutzerlizenzen
- Überwachung der Lizenzzuweisung
- Lizenzüberzuweisung
- Lizenzierungsbenachrichtigungen
- Benutzerlizenzverwaltung
- Migrieren von Test Suite zu Test Cloud
- Konten und Rollen
- Tests in Ihrer Organisation
- AI Trust Layer
- LLM-Anforderungen für die Kontextgrundlage
- Verwalten von Indizes
- Bringen Sie Ihre eigene Vektordatenbank mit
- Kontextgrundlage-Lizenzierung
- Externe Anwendungen
- Benachrichtigungen
- Protokollierung
- Fehlersuche und ‑behebung
Private Test Cloud-Administratorhandbuch
Nutzen Sie Ihre vorhandene Vektordatenbank, um Agentenantworten in vertrauenswürdigen Unternehmensdaten zu verankern, ohne Inhalte zu duplizieren oder Ihre aktuelle Architektur zu ändern.
Diese Anleitung zeigt, wie Sie extern verwaltete Vektordatenbanken (z. B. Databricks Vektor Search oder Azure AI Search) mithilfe von API-Workflows mit UiPath-Agenten verbinden und so eine Retrieval Augmented Generation (RAG) mit Ihren eigenen Datenquellen ermöglichen.
Am Ende dieser Anleitung werden Sie in der Lage sein:
- Fragen Sie eine externe Vektordatenbank von einem UiPath-Agent ab.
- Gibt den relevantesten Inhalt als strukturierten Kontext zurück.
- Legen Sie Agent-Antworten sicher und in Echtzeit in die Daten Ihrer Organisation ein.
Wann das Muster Bring Your Own Vektor Database (BYOVD) verwendet werden soll
Verwenden Sie BYOVD in folgenden Fällen:
- Ihre Daten sind bereits in einem externen Vektorspeicher indiziert.
- Sie möchten, dass Agents Zugriff auf aktuelles Unternehmenswissen erhalten.
- Sie müssen das Kopieren oder Neuindizieren von Daten in UiPath vermeiden.
- Sie erhalten die volle Kontrolle über Datenspeicher, Sicherheit und Einbettungen.
Wie es funktioniert
BYOVD ermöglicht es Agents, generative KI-Antworten in Ihren vertrauenswürdigen Datenquellen zu verankern. Anstatt sich auf einen integrierten Kontextgrundlagenindex zu verlassen, verwenden Sie API-Workflows , die Ihre externe Vektordatenbank sicher abfragen und relevanten Kontext an das große Sprachmodell des Agents zurückgeben.
Dieser Ansatz bietet Ihnen die Flexibilität, jede Vektordatenbank in eine öffentliche API zu integrieren und gleichzeitig die Kontrolle über Datenzugriff, Authentifizierung und Abruflogik zu behalten.
UiPath ermöglicht BYOVD über API-Workflows, die als Tools für Agents fungieren. Zur Laufzeit:
- Benutzerabfrage: Der Benutzer übermittelt eine Eingabeaufforderung an den Agenten.
- Toolauswahl: Das LLM des Agents bestimmt, dass zusätzlicher Kontext erforderlich ist, und wählt das benutzerdefinierte Vektorsuchtool aus.
- API-Workflowausführung: Der Agent ruft den veröffentlichten API-Workflow auf und übergibt die Abfrage des Benutzers als Eingabe.
- Vektorsuche: Der Workflow fragt die Vektordatenbank ab, um die semantisch relevantesten Inhalte abzurufen.
- Kontextrückgabe: Der Workflow gibt den abgerufenen Inhalt als strukturiertes JSON zurück.
- Antwortformulierung: Der Agent verwendet diesen Kontext, um eine fundierte, genaue Antwort zu generieren.
Dieser Ansatz unterstützt die Retrieval-Augmented-Generation (RAG), ohne dass eine native Erfassung in den Kontextgrundlage-Dienst erforderlich ist.
Architekturüberblick
Die BYOVD-Lösung besteht aus drei Hauptkomponenten:
- Vektordatenbank: Ihr vorhandenes System (z. B. Databricks-vektorsuche oder Azure-AI-Suche).
- API-Workflow: Ein UiPath Integration Service-Workflow, der:
- Akzeptiert eine Abfrage.
- Ruft die Vektordatenbank-API auf.
- Gibt relevante Ergebnisse zurück.
- Agententool: Der veröffentlichte API-Workflow, der als Tool hinzugefügt wurde, das der Agent aufrufen kann.
Sicherheits- und Anmeldeinformationsverwaltung
Bevor Sie den Workflow erstellen, speichern Sie alle API-Schlüssel und Geheimnisse sicher. Codieren Sie in Ihrem Workflow keine Anmeldeinformationen hart. Verwenden Sie stattdessen den Orchestrator-Anmeldeinformationsspeicher:
- Anmeldeinformationen im Orchestrator speichern: Fügen Sie Ihre API-Schlüssel und andere geheime Schlüssel als Anmeldeinformationsassets in Ihrem Orchestrator-Mandanten hinzu. Dies bietet eine zentrale, sichere Verwaltung vertraulicher Informationen.
- Anmeldeinformationen zur Laufzeit abrufen: Verwenden Sie in Ihrem API-Workflow die Aktivität Get Credential , um auf gespeicherte Anmeldeinformationen zuzugreifen, wenn der Workflow ausgeführt wird. Die Aktivität gibt den Benutzernamen als String und das Kennwort (z. B. einen API-Schlüssel) als
SecureStringzurück, wodurch verhindert wird, dass geheime Schlüssel in Protokollen oder Workflow-Definitionen offengelegt werden.
Voraussetzungen
Bevor Sie beginnen, stellen Sie sicher, dass Sie Folgendes haben:
- Eine aktive Vektordatenbank (z. B. Databricks Vektor Search oder Azure AI Search) mit indizierten Daten.
- Ein gültiger API-Endpunkt und Authentifizierungsanmeldeinformationen, die als Anmeldeinformationsassets im Orchestrator gespeichert sind.
- Ein Endpunkt und Schlüssel des Einbettungsmodells, die ebenfalls sicher gespeichert sind (nur für die clientseitige Azure-vektorisierung.
Einrichten
Sie können BYOVD mit einem von drei Ansätzen implementieren: modellnative Endpunkte, clientseitige Vektorisierung (bei der der API-Workflow die Vektorisierung durchführt) oder integrierte Vektorisierung.
Die folgenden Abschnitte enthalten Schritt-für-Schritt-Anweisungen zum Konfigurieren der einzelnen Ansätze. Die Beispiele verwenden Databricks und Azure AI Search, aber das gleiche Muster gilt für andere Vektordatenbanken. Wählen Sie die Einrichtung, die der Art und Weise entspricht, wie Ihre Vektordatenbank die Abfragevektorisierung verarbeitet.
Databricks-vektorsuche (modellnativer Endpunkt)
Verwenden Sie diese Option, wenn Databricks die Vektorisierung von Abfragen nativ übernimmt.
Warum diese Option verwenden:
- Eine einfache Konfiguration
- Nur ein API-Aufruf pro Abfrage
- Kein separates Einbettungsmodell erforderlich
Schritte
- Rufen Sie die Databricks-Details ab:
- Rufen Sie die Endpunkt-URL ab.
- Speichern Sie Ihr persönliches Zugriffstoken für Databricks als Anmeldeinformations-Asset im Orchestrator.
- Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
in_QueryText(String)in_TopK(Int32, mit einem Standardwert von5)out_Results(String)
- Verwenden Sie die Aktivität Get Credential , um das persönliche Databricks-Zugriffstoken vom Orchestrator zur Laufzeit abzurufen.
- Fügen Sie eine HTTP Request- Aktivität hinzu, um den Databricks-Endpunkt aufzurufen:
- Endpunkt: Der Endpunkt der Databricks-vektorsuche
- Methode:
POST - Header:
Authorization: Bearer <Personal Access Token> - Textkörper: Erstellen Sie den von der Databricks-API erforderlichen JSON-Textkörper und ordnen Sie Ihre Eingabevariablen zu.
- Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
- Fügen Sie den Workflow als Tool zu Ihrem Agent hinzu und geben Sie einen klaren Namen und eine Beschreibung für das zu verwendende LLM an.
Azure AI Search (clientseitige Vektorisierung)
Verwenden Sie diese Option, wenn Ihr Azure AI Search-Index Vektoreingaben erwartet.
Warum diese Option verwenden:
- Volle Kontrolle über das Einbetten von Modellen
- Kompatibilität mit vorhandenen Vektorindizes
Schritte
- Rufen Sie die API-Details ab:
- Für Azure AI Search: Rufen Sie die Endpunkt-URL und den Indexnamen ab und speichern Sie Ihren API-Schlüssel als Anmeldeinformations-Asset im Orchestrator.
- Für das Einbettungsmodell: Rufen Sie die Endpunkt-URL ab und speichern Sie den API-Schlüssel für Ihren Einbettungsdienst als Anmeldeinformations-Asset im Orchestrator.
- Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
in_QueryText(String)in_TopK(Int32, mit einem Standardwert von5)out_Results(String)
- Vektorisieren Sie zunächst die Abfrage:
- Fügen Sie eine Get Credential- Aktivität hinzu, um den API-Schlüssel Ihres Einbettungsmodells abzurufen.
- Fügen Sie eine HTTP Request- Aktivität hinzu, um Ihr Einbettungsmodell mit dem
in_QueryTextaufzurufen. - Deserialisieren Sie die JSON-Antwort und speichern Sie den resultierenden Einbettungsvektor in einer Variablen (z. B.
queryVector).
- Azure AI Search abfragen:
- Fügen Sie eine Get Credential- Aktivität hinzu, um Ihren Azure AI Search-API-Schlüssel abzurufen.
- Fügen Sie eine HTTP Request- Aktivität hinzu und konfigurieren Sie sie wie folgt:
- Endpunkt: Ihr Azure AI Search-Endpunkt.
- Methode:
POST. - Header: Fügen Sie einen
api-key-Header mit Ihrer Azure AI Search API-Schlüsselvariablen wie folgt hinzu:api-key: <API key>. - Text: Erstellen Sie den JSON-Text für die Azure AI Search-vektorsuchabfrage und bebetten Sie Ihre
queryVector-Variable.
- Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
- Fügen Sie den veröffentlichten Workflow als Tool zu Ihrem Agent hinzu und stellen Sie eine eindeutige Beschreibung für das zu verwendende LLM bereit.
Azure AI Search (integrierte Vektorisierung)
Verwenden Sie diese Option, wenn Ihr Azure AI Search-Index die integrierte Vektorisierung unterstützt.
Warum diese Option verwenden:
- Einfachstes Azure-Setup
- Keine Einbettungsaufrufe in den Workflow
- Einzelne API-Anforderung pro Abfrage
Schritte
- Rufen Sie die API-Details ab:
- Rufen Sie Ihre Azure AI Search-Endpunkt-URL und den Indexnamen ab und speichern Sie Ihren API-Schlüssel als Anmeldeinformations-Asset im Orchestrator.
- Erstellen Sie in Studio ein neues API-Workflowprojekt und definieren Sie die folgenden Argumente:
in_QueryText(String)in_TopK(Int32, mit einem Standardwert von5)out_Results(String)
- Fügen Sie eine Get Credential- Aktivität hinzu, um Ihren Azure AI Search API-Schlüssel vom Orchestrator abzurufen.
- Fügen Sie eine HTTP Request- Aktivität hinzu und konfigurieren Sie sie wie folgt:
- Endpunkt:
https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01 - Methode:
POST - Header: Fügen Sie einen
api-key-Header mit Ihrer Azure AI Search API-Schlüsselvariablen wie folgt hinzu:api-key: <API key> - Textkörper: Konstruieren Sie den JSON-Text, um eine Vektorsuche mit dem Abfragetext durchzuführen. Azure AI Search verarbeitet die Vektorisierung automatisch.
{ "vectorQueries": [ { "kind": "text", "text": "<%= in_QueryText %>", "fields": "contentVector", "k": "<%= in_TopK %>" } ], "select": "chunk, source_document" }{ "vectorQueries": [ { "kind": "text", "text": "<%= in_QueryText %>", "fields": "contentVector", "k": "<%= in_TopK %>" } ], "select": "chunk, source_document" }
- Endpunkt:
- Veröffentlichen Sie den Workflow in Ihrem Orchestrator-Mandanten.
- Fügen Sie den veröffentlichten Workflow als Tool zu Ihrem Agent hinzu und stellen Sie eine eindeutige Beschreibung für das LLM bereit.