- Versionshinweise
- Anforderungen
- Installation
- Erste Schritte
- Projekte
- Datasets
- ML-Pakete
- Pipelines
- ML-Skills
- ML-Protokolle
- Document Understanding in AI Fabric
- Grundlegende Anleitung zur Fehlerbehebung
AI Fabric – Einzelner Knoten
Auf hoher Ebene muss die Installation von AI Fabric die folgenden Schritte ausführen:
Schritt | Aktive Zeit | Wartezeit |
---|---|---|
1. AIF-Maschine bereitstellen | < 5 Min. | -- |
2. Datenbank konfigurieren | < 1 Min. | -- |
3. Den Orchestrator konfigurieren | < 5 Min. | -- |
4. Ausführen des AI Fabric Infrastructure-Installationsprogramms | < 1 Min. | ~20 Minuten |
5. Ausführen des AI Fabric-Anwendungsinstallationsprogramms | < 5 Min. | ~20 Minuten |
6. Die Installation überprüfen | ~5 Min. | -- |
- Die Linux-Maschine, auf der AI Fabric installiert wird, muss sich mit der Orchestrator-Maschine (Domäne und Port) verbinden können.
- Die Linux-Maschine, auf der AI Fabric installiert wird, muss sich mit dem SQL-Server (Domäne/IP und Port) verbinden können.
- Roboter/Studio, die AI Fabric nutzen, müssen eine Verbindung mit der AI Fabric-Linux-Maschine herstellen können.
Für Peripheriekomponenten von Document Understanding (Data Manager und OCR Engines):
- Data Manager benötigt Zugriff auf AI Fabric vor Ort :<port_number> oder auf öffentliche SaaS-Endpunkte wie https://invoices.uipath.com, falls eine Vorbeschriftung erforderlich ist (die Vorbeschriftung ist optional).
- Data Manager benötigt Zugriff auf die OCR-Engine:<port_number>. Die OCR-Engine kann UiPath Document OCR lokal, Omnipage OCR lokal, Google Cloud Vision OCR, Microsoft Read Azure, Microsoft Read lokal sein.
- Roboter benötigen Zugriff auf OCR :<port_number>. Dieselben OCR-Optionen wie oben, mit Ausnahme von Omnipage, das in den Robotern direkt als Aktivitätspaket verfügbar ist.
Die AI Fabric Online-Installation bezieht sich auf eine On-Premises-Installation, die die AI Fabric-Anwendung und alle zugehörigen Artefakte (z. B. Machine Learning-Modelle) aus dem Internet herunterlädt.
Das AI Fabric-Installationsprogramm lädt Container-Images und Machine-Learning-Modelle herunter, um Ihre AI Fabric-Instanz mit gebrauchsfertigem Machine Learning auszustatten (dies schließt Document Understanding-Modelle ein). Aus diesem Grund benötigt die Linux-Maschine zur Installationszeit Zugriff auf diese Endpunkte über https (Port 443):
Hostname | Zweck |
---|---|
registry.replicated.com | Upstream-Docker-Images werden über registry.replicated.com abgerufen. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien. |
proxy.replicated.com | Upstream-Docker-Images werden über proxy.replicated.com abgerufen. Der lokale Docker-Client verwendet eine Lizenz-ID, um sich bei proxy.replicated.com zu authentifizieren. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien. |
replicated.app | Die YAML- und Metadaten der vorgelagerten Anwendung werden aus replicated.app gezogen. Die aktuell ausgeführte Version der Anwendung (falls vorhanden) wird zusätzlich zu einer Lizenz-ID gesendet. Anwendungs-IDs werden an replicated.app gesendet, um sich zu authentifizieren und diese YAML-Dateien zu erhalten. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien |
get.replicated.com | Synchronisierung von Artefakten aus replicated. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien. |
api.replicated.com | API-Anforderungen an das Infrastruktur-Installationsprogramm. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien. |
k8s.kurl.sh | Skripts und Artefakte der Clusterinstallation werden von kurl.sh ausgegeben. Ein Anwendungsbezeichner wird in einem URL-Pfad gesendet, und bash-Skripts und binäre ausführbare Dateien werden von kurl.sh ausgegeben. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien. |
kurl-sh.s3.amazonaws.com | tar.gz-Pakete werden während eingebetteter Clusterinstallationen von Amazon S3 heruntergeladen. Die IP-Bereiche, die hierzu für den Zugriff auf die weiße Liste gesetzt werden sollen, können dynamisch aus der Dokumentation zu AWS IP Address Ranges1 extrahiert werden. |
*.docker.io | Upstream-Docker-Images werden aus docker.io abgerufen. Es kann mehrere Unterdomänen wie registry-1.docker.io geben, daher sollte das Muster rechts zulässig sein. |
*.docker.com | Andere Upstream-Docker-Images werden aus docker.com abgerufen. Es kann mehrere Unterdomänen geben, daher sollte das Muster rechts zulässig sein. |
raw.githubusercontent.com | Für Skripte zum Erstellen von persistenten Volumenansprüchen. |
quay.io | Stellt Container-Images bereit. |
registry.k8s.io | Upstream-Images werden aus registry.k8s.io abgerufen. |
Diese Endpunkte müssen nur Verbindungen für die Verwendung einer GPU mit AI Fabric ermöglichen. Die gesamte GPU-Installation erfolgt über unser Skript des GPU-Installationsprogramms unter 4. Ausführen des AI Fabric-Infrastrukturinstallationsprogramms.
Hostname | Zweck |
---|---|
developer.download.nvidia.com | Laden Sie die GPU-Treiber von NVIDIA herunter. |
nvidia.github.io | Laden Sie https://nvidia.github.io/nvidia-docker/gpgkey und nvidia-docker.list herunter |
raw.githubusercontent.com | Das Skript lädt intern eine YAML-Datei von github.com/NVIDIA/k8s-device-plugin herunter |
Zur Laufzeit stellt AI Fabric, das über das Online-Installationsprogramm installiert wurde, eine Verbindung mit diesen Endpunkten her:
Hostname | Zweck |
---|---|
du-metering.uipath.com | Zur Berücksichtigung und Validierung von Document Understanding-Lizenzen. |
registry.replicated.com | Upstream-Docker-Images werden über eine private Docker-Registrierung aus registry.replicated.com abgerufen. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien. |
raw.githubusercontent.com | Damit Skripts OOB-Modelle täglich aktualisieren können. |
github.com | Damit Skripts OOB-Modelle täglich aktualisieren können. |
benutzerdefiniert (optional) | Dies hängt davon ab, wie die Person, die AI Fabric verwendet , ihre ML-Pakete erstellthat. AI Fabric erstellt dynamisch ein Container-Image. Die Abhängigkeiten für dieses Image können innerhalb des ML-Pakets selbst gebündelt (in diesem Fall werden keine zusätzlichen ausgehenden Netzwerkaufrufe ausgeführt) oder in einer requirements.txt-Datei angegeben werden. Diese Datei kann den Speicherort angeben, von dem Abhängigkeiten heruntergeladen werden. |
Die Airgapped-Installation von AI Fabric bezieht sich auf eine lokale Installation, die nach einem einmaligen Download von einer UiPath-Domäne getriggert wurde.
Zur Installationszeit ist keine Internetverbindung erforderlich (Hinweis: Wenn der Knoten über eine GPU verfügt, wird davon ausgegangen, dass der NVIDIA-Treiber Version 450.51.06 und die Nvidia Container Runtime wie in den Voraussetzungen für eine Airgapped-Installation beschrieben installiert wurden).
Zur Laufzeit der Anwendung liegt es beim Benutzer von AI Fabric, ob eine Konnektivität erforderlich ist oder nicht. Ein AI Fabric-Benutzer erstellt ein ML-Paket , das in AI Fabric bereitgestellt und trainiert werden kann. AI Fabric erstellt aus diesem ML-Paket dynamisch ein Container-Image. Die Abhängigkeiten für dieses Image können innerhalb des ML-Pakets selbst gebündelt (in diesem Fall werden keine zusätzlichen ausgehenden Netzwerkaufrufe ausgeführt) oder in einer requirements.txt-Datei angegeben werden. Diese Datei kann den Speicherort angeben, von dem Abhängigkeiten heruntergeladen werden, z. B. ein internes, sicheres Python-Paketabhängigkeits-Repository.
- Netzwerkkonfiguration
- Konnektivitätsanforderungen – Onlineinstallation
- Endpunkte, mit denen das Installationsprogramm eine Verbindung herstellt
- Endpunkte, mit denen die GPU-Installationsskripte eine Verbindung herstellen
- Endpunkte, die zur Laufzeit verbunden sind
- Konnektivitätsanforderungen – Airgapped-Installation