- Versionshinweise
- Überblick
- Einstellung und Konfiguration (Setup and Configuration)
- Softwareanforderungen
- Hardwareanforderungen
- Bereitstellen des Servers
- Verbinden mit dem Server
- Lizenzierung
- Datenspeicher
Softwareanforderungen
Die unterstützten Betriebssysteme für den Computer Vision-Server sind:
- Microsoft Windows 10 21H2, Windows 11
- Ubuntu v16.04, v18.04, v20.04, v22.04
- RHEL 8, 9
Der Windows Computer Vision-Server verwendet eine containerbasierte Bereitstellung mit Docker im Windows-Subsystem für Linux (WSL) 2. Folgendes muss installiert werden:
- WSL 2
- Docker Desktop für Windows oder Docker Engine (wenn direkt in WSL installiert)
- Nvidia Windows 11-Anzeigetreiber
- Nvidia Container Toolkit
Die folgenden Ressourcen müssen auf der Maschine installiert sein, auf der Sie die Bereitstellung durchführen möchten:
- CUDA v11.1
- cuDNN8 v8.2.1
- Docker
- Nvidia Container Toolkit
Der Einfachheit halber stellt UiPath ein Skript zum Installieren dieser Voraussetzungen bereit. Dieses Skript wird „wie besehen“ bereitgestellt, ohne dass eine stillschweigende oder explizite Garantie erforderlich ist. Um die Voraussetzungen mithilfe dieses Skripts zu installieren, führen Sie die folgende Zeile im Terminal der GPU-Maschine aus:
curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_all.sh | sudo bash -s -- --env gpu
curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_all.sh | sudo bash -s -- --env gpu
Diese Zeile führt ein von UiPath gehostetes Skript aus, das die oben genannten Ressourcen automatisch herunterlädt und installiert. Sobald das Skript abgeschlossen und die Ressourcen installiert sind, ist zum Starten einer Serverinstanz eines Machine Learning-Modells eine ZIP-Datei mit dem Modell erforderlich. Diese ZIP-Datei enthält ein Einstiegspunktskript und ein lokales Geschwindigkeitstestskript.
Wenn Sie mehr über die technischen Details dieses Skripts erfahren möchten, besuchen Sie das UiPath Infrastructure Github Repository.
Die folgenden Ressourcen müssen auf der Maschine installiert sein, auf der Sie die Bereitstellung durchführen möchten:
- CUDA v11.1
- cuDNN8 v8.2.1
- Podman
Der Einfachheit halber stellt UiPath ein Skript zum Installieren dieser Voraussetzungen bereit. Dieses Skript wird „wie besehen“ bereitgestellt, ohne dass eine stillschweigende oder explizite Garantie erforderlich ist. Um die Voraussetzungen mithilfe dieses Skripts zu installieren, führen Sie die folgende Zeile im Terminal der GPU-Maschine aus:
curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_podman_rhel8.sh | sudo bash -s -- --env gpu
curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_podman_rhel8.sh | sudo bash -s -- --env gpu
Diese Zeile führt ein von UiPath gehostetes Skript aus, das die oben genannten Ressourcen automatisch herunterlädt und installiert. Sobald das Skript abgeschlossen und die Ressourcen installiert sind, ist zum Starten einer Serverinstanz eines Machine Learning-Modells eine ZIP-Datei mit dem Modell erforderlich. Diese ZIP-Datei enthält ein Einstiegspunktskript und ein lokales Geschwindigkeitstestskript.
Wenn Sie mehr über die technischen Details dieses Skripts erfahren möchten, besuchen Sie das UiPath Infrastructure Github Repository.