- Versionshinweise
- Überblick
- Einstellung und Konfiguration (Setup and Configuration)
- Softwareanforderungen
- Hardwareanforderungen
- Bereitstellen des Servers
- Verbinden mit dem Server
- Lizenzierung
- Datenspeicher
Bereitstellen des Servers
Wenn Sie Ihren eigenen Computer Vision-Server mit Docker unter Microsoft Windows oder Ubuntu oder mit Podman unter Red Hat Enterprise Linux bereitstellen und mit Computer Vision-Aktivitäten verwenden möchten, führen Sie die folgenden Schritte aus.
Zuerst muss WSL auf Ihrer Maschine installiert werden.
{distribution}
die Linux-Distribution ist, die Sie verwenden möchten:
wsl --install -d {distribution}
wsl --install -d {distribution}
Um den Computer Vision-Server auf einer Windows-Maschine auszuführen, müssen Sie den Nvidia Windows 11-Anzeigetreiber mit einer kompatiblen Geforce- oder Nvidia RTX-/quadro-Karte von der offiziellen Nvidia-Website herunterladen und installieren.
Sie können sowohl Docker als auch das Nvidia Container Toolkit installieren, indem Sie das folgende Skript ausführen:
https://github.com/UiPath/Infrastructure/blob/main/ML/ml_prereq_wsl.sh
https://github.com/UiPath/Infrastructure/blob/main/ML/ml_prereq_wsl.sh
Um den Computer Vision-Server auszuführen, müssen Sie die folgenden Befehle im WSL-Linux-Terminal ausführen:
export CV_URL="LINK_FROM_SALES_REP"
wget "$CV_URL" -O controls_detection.tar
docker load -i controls_detection.tar
docker run -p 8501:5000 --gpus all controls_detection eula=accept
export CV_URL="LINK_FROM_SALES_REP"
wget "$CV_URL" -O controls_detection.tar
docker load -i controls_detection.tar
docker run -p 8501:5000 --gpus all controls_detection eula=accept
8501
.
Da die in WSL ausgeführte Linux-Instanz über einen eigenen virtuellen Netzwerkschnittstellen-Controller verfügt, wird der Datenverkehr zur Host-IP nicht direkt an die IP der Linux-Instanz umgeleitet. Dieses Problem kann umgangen werden, indem der Datenverkehr der Host-IP mit dem folgenden Befehl an die Linux-Instanz weitergeleitet wird:
netsh interface portproxy add v4tov4 listenaddress=0.0.0.0 listenport=8501 connectaddress=$wsl_ip connectport=8501
netsh interface portproxy add v4tov4 listenaddress=0.0.0.0 listenport=8501 connectaddress=$wsl_ip connectport=8501
Die WSL-IP kann mit dem folgenden Befehl gefunden werden:
wsl -d {distribution} hostname -I
wsl -d {distribution} hostname -I
{distribution}
die installierte Linux-Distribution ist:
wsl -d {distribution} echo "starting...";
$wsl_ips = (wsl -d {distribution} hostname -I);
$host_ip = $wsl_ips.Split(" ")[0];
netsh interface portproxy add v4tov4 listenport=8501 listenaddress=0.0.0.0 connectport=8501 connectaddress=$host_ip;
wsl -d {distribution} -u root service docker start;
wsl -d {distribution} -u root docker run -p 8501:5000 --gpus all controls_detection eula=accept;
wsl -d {distribution} echo "starting...";
$wsl_ips = (wsl -d {distribution} hostname -I);
$host_ip = $wsl_ips.Split(" ")[0];
netsh interface portproxy add v4tov4 listenport=8501 listenaddress=0.0.0.0 connectport=8501 connectaddress=$host_ip;
wsl -d {distribution} -u root service docker start;
wsl -d {distribution} -u root docker run -p 8501:5000 --gpus all controls_detection eula=accept;
Dieser Installationsprozess erfordert eine Maschine, die verschachtelte Virtualisierung unterstützt. Derzeit unterstützen die meisten Cloud-VMs keine verschachtelte Virtualisierung für GPU-Maschinen. Zusammenfassend ist dieser Installationsprozess am besten für Kunden geeignet, die über physische Windows-Server mit GPUs verfügen.
Alle auf dieser Seite aufgeführten Befehle sollten in einem Terminal auf der GPU-Maschine ausgeführt werden.
Speichern Sie den Link, den Sie von Ihrem Vertriebsmitarbeiter erhalten haben, in der aktuellen Terminalsitzung:
export CV_URL="LINK_FROM_SALES_REP"
export CV_URL="LINK_FROM_SALES_REP"
Laden Sie den Export herunter:
wget "$CV_URL" -O controls_detection.tar
wget "$CV_URL" -O controls_detection.tar
Führen Sie den folgenden Befehl aus:
docker load -i controls_detection.tar
docker load -i controls_detection.tar
Führen Sie den folgenden Befehl aus:
docker run \
-p 8501:5000 \
--gpus all \
controls_detection eula=accept
docker run \
-p 8501:5000 \
--gpus all \
controls_detection eula=accept
Das Aktualisieren des Modells entspricht dem Installieren einer neuen Version davon. Ein Upgrade bedeutet nämlich, dass das Modell selbst und auch seine Binärdateien geändert werden, wodurch der Server zwangsläufig nicht mehr funktioniert.
Wenn Sie das Upgrade auf genau derselben Servermaschine durchführen möchten, ist mit Ausfallzeiten zu rechnen. Um dieses Szenario zu vermeiden, können Sie die neue Version einfach auf einer anderen Servermaschine installieren und nach Abschluss der Installation den Datenverkehr darauf umleiten.
Ein Standard-Upgrade-Szenario sieht wie folgt aus:
- Bereiten Sie sich auf Ausfallzeiten vor und kündigen Sie diese an (falls zutreffend).
- Installieren Sie das neue Modell anstelle des alten.
- Führen Sie den Server aus.
Wenn Ihre Umgebung ein Load Balancer-Setup mit mehreren Knoten verwendet, können Sie Ausfallzeiten vollständig vermeiden, indem Sie jeden Knoten einzeln neu installieren.
Alle auf dieser Seite aufgeführten Befehle sollten in einem Terminal auf der GPU-Maschine ausgeführt werden.
Speichern Sie den Link, den Sie von Ihrem Vertriebsmitarbeiter erhalten haben, in der aktuellen Terminalsitzung:
export CV_URL="LINK_FROM_SALES_REP"
export CV_URL="LINK_FROM_SALES_REP"
Laden Sie den Export herunter:
wget "$CV_URL" -O controls_detection.tar
wget "$CV_URL" -O controls_detection.tar
Führen Sie den folgenden Befehl aus:
podman load -i controls_detection.tar
podman load -i controls_detection.tar
Führen Sie den folgenden Befehl aus:
podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/
\--security-opt=label=disable controls_detection eula=accept
podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/
\--security-opt=label=disable controls_detection eula=accept
Das Aktualisieren des Modells entspricht dem Installieren einer neuen Version davon. Ein Upgrade bedeutet nämlich, dass das Modell selbst und auch seine Binärdateien geändert werden, wodurch der Server zwangsläufig nicht mehr funktioniert.
Wenn Sie das Upgrade auf genau derselben Servermaschine durchführen möchten, ist mit Ausfallzeiten zu rechnen. Um dieses Szenario zu vermeiden, können Sie die neue Version einfach auf einer anderen Servermaschine installieren und nach Abschluss der Installation den Datenverkehr darauf umleiten.
Ein Standard-Upgrade-Szenario sieht wie folgt aus:
- Bereiten Sie sich auf Ausfallzeiten vor und kündigen Sie diese an (falls zutreffend).
- Installieren Sie das neue Modell anstelle des alten.
- Führen Sie den Server aus.
Wenn Ihre Umgebung ein Load Balancer-Setup mit mehreren Knoten verwendet, können Sie Ausfallzeiten vollständig vermeiden, indem Sie jeden Knoten einzeln neu installieren.
- Microsoft Windows
- Installieren von WSL
- Installieren von Nvidia-Treibern
- Installieren von Docker und Nvidia Container Toolkit
- Ausführen des Servers
- Bereitstellen des Servers im Netzwerk
- Automatisches Starten des Servers
- Einschränkungen bei der Installation
- Ubuntu
- Herunterladen des Bildexports für den Computer Vision-Server
- Laden des Bilds in Docker
- Starten des Servers
- Aktualisieren des Computer Vision-Modells
- Linux RHEL
- Herunterladen des Bildexports für den Computer Vision-Server
- Laden des Bilds in Podman
- Starten des Servers
- Aktualisieren des Computer Vision-Modells