AI Center
2020.10
False
Bannerhintergrundbild
AI Center
Letzte Aktualisierung 11. März 2024

AI Fabric – Einzelner Knoten

Wichtig: Bevor Sie fortfahren, stellen Sie sicher, dass Sie die hierbeschriebenen Anforderungen erfüllen

Auf hoher Ebene muss die Installation von AI Fabric die folgenden Schritte ausführen:

SchrittAktive ZeitWartezeit
1. AIF-Maschine bereitstellen< 5 Min.--
2. Datenbank konfigurieren< 1 Min.--
3. Den Orchestrator konfigurieren< 5 Min.--
4. Ausführen des AI Fabric Infrastructure-Installationsprogramms< 1 Min.~20 Minuten
5. Ausführen des AI Fabric-Anwendungsinstallationsprogramms< 5 Min.~20 Minuten
6. Die Installation überprüfen~5 Min.--

Netzwerkkonfiguration

  • Die Linux-Maschine, auf der AI Fabric installiert wird, muss sich mit der Orchestrator-Maschine (Domäne und Port) verbinden können.
  • Die Linux-Maschine, auf der AI Fabric installiert wird, muss sich mit dem SQL-Server (Domäne/IP und Port) verbinden können.
  • Roboter/Studio, die AI Fabric nutzen, müssen eine Verbindung mit der AI Fabric-Linux-Maschine herstellen können.

Für Peripheriekomponenten von Document Understanding (Data Manager und OCR Engines):

  • Data Manager benötigt Zugriff auf AI Fabric vor Ort :<port_number> oder auf öffentliche SaaS-Endpunkte wie https://invoices.uipath.com, falls eine Vorbeschriftung erforderlich ist (die Vorbeschriftung ist optional).
  • Data Manager benötigt Zugriff auf die OCR-Engine:<port_number>. Die OCR-Engine kann UiPath Document OCR lokal, Omnipage OCR lokal, Google Cloud Vision OCR, Microsoft Read Azure, Microsoft Read lokal sein.
  • Roboter benötigen Zugriff auf OCR :<port_number>. Dieselben OCR-Optionen wie oben, mit Ausnahme von Omnipage, das in den Robotern direkt als Aktivitätspaket verfügbar ist.

Konnektivitätsanforderungen – Onlineinstallation

Die AI Fabric Online-Installation bezieht sich auf eine On-Premises-Installation, die die AI Fabric-Anwendung und alle zugehörigen Artefakte (z. B. Machine Learning-Modelle) aus dem Internet herunterlädt.

Endpunkte, mit denen das Installationsprogramm eine Verbindung herstellt

Das AI Fabric-Installationsprogramm lädt Container-Images und Machine-Learning-Modelle herunter, um Ihre AI Fabric-Instanz mit gebrauchsfertigem Machine Learning auszustatten (dies schließt Document Understanding-Modelle ein). Aus diesem Grund benötigt die Linux-Maschine zur Installationszeit Zugriff auf diese Endpunkte über https (Port 443):

HostnameZweck
registry.replicated.comUpstream-Docker-Images werden über registry.replicated.com abgerufen. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien.
proxy.replicated.comUpstream-Docker-Images werden über proxy.replicated.com abgerufen. Der lokale Docker-Client verwendet eine Lizenz-ID, um sich bei proxy.replicated.com zu authentifizieren. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien.
replicated.appDie YAML- und Metadaten der vorgelagerten Anwendung werden aus replicated.app gezogen. Die aktuell ausgeführte Version der Anwendung (falls vorhanden) wird zusätzlich zu einer Lizenz-ID gesendet. Anwendungs-IDs werden an replicated.app gesendet, um sich zu authentifizieren und diese YAML-Dateien zu erhalten. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien
get.replicated.comSynchronisierung von Artefakten aus replicated. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien.
api.replicated.comAPI-Anforderungen an das Infrastruktur-Installationsprogramm. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien.
k8s.kurl.shSkripts und Artefakte der Clusterinstallation werden von kurl.sh ausgegeben. Ein Anwendungsbezeichner wird in einem URL-Pfad gesendet, und bash-Skripts und binäre ausführbare Dateien werden von kurl.sh ausgegeben. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien.
kurl-sh.s3.amazonaws.comtar.gz-Pakete werden während eingebetteter Clusterinstallationen von Amazon S3 heruntergeladen. Die IP-Bereiche, die hierzu für den Zugriff auf die weiße Liste gesetzt werden sollen, können dynamisch aus der Dokumentation zu AWS IP Address Ranges1 extrahiert werden.
*.docker.ioUpstream-Docker-Images werden aus docker.io abgerufen. Es kann mehrere Unterdomänen wie registry-1.docker.io geben, daher sollte das Muster rechts zulässig sein.
*.docker.comAndere Upstream-Docker-Images werden aus docker.com abgerufen. Es kann mehrere Unterdomänen geben, daher sollte das Muster rechts zulässig sein.
raw.githubusercontent.comFür Skripte zum Erstellen von persistenten Volumenansprüchen.
quay.ioStellt Container-Images bereit.
registry.k8s.ioUpstream-Images werden aus registry.k8s.io abgerufen.

Endpunkte, mit denen die GPU-Installationsskripte eine Verbindung herstellen

Diese Endpunkte müssen nur Verbindungen für die Verwendung einer GPU mit AI Fabric ermöglichen. Die gesamte GPU-Installation erfolgt über unser Skript des GPU-Installationsprogramms unter 4. Ausführen des AI Fabric-Infrastrukturinstallationsprogramms.

HostnameZweck
developer.download.nvidia.comLaden Sie die GPU-Treiber von NVIDIA herunter.
nvidia.github.ioLaden Sie https://nvidia.github.io/nvidia-docker/gpgkey und nvidia-docker.list herunter
raw.githubusercontent.comDas Skript lädt intern eine YAML-Datei von github.com/NVIDIA/k8s-device-plugin herunter

Endpunkte, die zur Laufzeit verbunden sind

Zur Laufzeit stellt AI Fabric, das über das Online-Installationsprogramm installiert wurde, eine Verbindung mit diesen Endpunkten her:

HostnameZweck
du-metering.uipath.comZur Berücksichtigung und Validierung von Document Understanding-Lizenzen.
registry.replicated.comUpstream-Docker-Images werden über eine private Docker-Registrierung aus registry.replicated.com abgerufen. Diese Domäne befindet sich im Besitz von Replicated, Inc. mit Hauptsitz in Los Angeles, Kalifornien.
raw.githubusercontent.comDamit Skripts OOB-Modelle täglich aktualisieren können.
github.comDamit Skripts OOB-Modelle täglich aktualisieren können.
benutzerdefiniert (optional) Dies hängt davon ab, wie die Person, die AI Fabric verwendet , ihre ML-Pakete erstellt hat. AI Fabric erstellt dynamisch ein Image für den Container. Die Abhängigkeiten für dieses Image können innerhalb des ML-Pakets selbst gebündelt (in diesem Fall werden keine zusätzlichen ausgehenden Netzwerkaufrufe ausgeführt) oder in einer requirements.txt-Datei angegeben werden. Diese Datei kann den Speicherort angeben, von dem Abhängigkeiten heruntergeladen werden.

Konnektivitätsanforderungen – Airgapped-Installation

Die Airgapped-Installation von AI Fabric bezieht sich auf eine lokale Installation, die nach einem einmaligen Download von einer UiPath-Domäne getriggert wurde.

Zur Installationszeit ist keine Internetverbindung erforderlich (Hinweis: Wenn der Knoten über eine GPU verfügt, wird davon ausgegangen, dass der NVIDIA-Treiber Version 450.51.06 und die Nvidia Container Runtime wie in den Voraussetzungen für eine Airgapped-Installation beschrieben installiert wurden).

Zur Laufzeit der Anwendung kann der Nutzer von AI Fabric selbst entscheiden, ob eine Konnektivität erforderlich ist oder nicht. Ein Benutzer von AI Fabric erstellt ein ML-Paket , das in AI Fabric bereitgestellt und trainiert werden kann. AI Fabric erstellt aus diesem ML-Paket dynamisch ein Image für den Container. Die Abhängigkeiten für dieses Image können innerhalb des ML-Pakets selbst gebündelt (in diesem Fall werden keine zusätzlichen ausgehenden Netzwerkaufrufe ausgeführt) oder in einer requirements.txt-Datei angegeben werden. Diese Datei kann den Speicherort angeben, von dem Abhängigkeiten heruntergeladen werden, z. B. ein internes, sicheres Python-Paketabhängigkeits-Repository.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
UiPath Logo weiß
Vertrauen und Sicherheit
© 2005-2024 UiPath. All rights reserved.