AI Computer Vision
2022.10
False
  • Versionshinweise
    • 2022.10.5.7
    • 2022.10.5.5
    • 2022.10.0
  • Überblick
  • Einstellung und Konfiguration (Setup and Configuration)
    • Softwareanforderungen
    • Hardwareanforderungen
    • Bereitstellen des Servers
    • Verbinden mit dem Server
  • Datenspeicher
Bannerhintergrundbild
AI Computer Vision-Benutzerhandbuch
Letzte Aktualisierung 11. März 2024

Softwareanforderungen

Die unterstützten Betriebssysteme für den Computer Vision-Server sind:

  • Microsoft Windows 10 21H2, Windows 11
  • Ubuntu v16.04, v18.04, v20.04, v22.04
  • RedHatEnterprise Linux 8

Microsoft Windows

Der Windows Computer Vision-Server verwendet eine containerbasierte Bereitstellung mit Docker im Windows-Subsystem für Linux (WSL) 2. Folgendes muss installiert werden:

  • WSL 2
  • Docker Desktop für Windows oder Docker Engine (wenn direkt in WSL installiert)
  • Nvidia Windows 11-Anzeigetreiber
  • Nvidia Container Toolkit

Ubuntu

Die folgenden Ressourcen müssen auf der Maschine installiert sein, auf der Sie die Bereitstellung durchführen möchten:

  • CUDA v11.1
  • cuDNN8 v8.2.1
  • Docker
  • Nvidia Container Toolkit

Der Einfachheit halber stellt UiPath ein Skript zum Installieren dieser Voraussetzungen bereit. Dieses Skript wird „wie besehen“ bereitgestellt, ohne dass eine stillschweigende oder explizite Garantie erforderlich ist. Um die Voraussetzungen mithilfe dieses Skripts zu installieren, führen Sie die folgende Zeile im Terminal der GPU-Maschine aus:

curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_all.sh | sudo bash -s -- --env gpucurl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_all.sh | sudo bash -s -- --env gpu
Hinweis: Nach dem Ausführen des Installationsskripts ist ein Neustart erforderlich.

Diese Zeile führt ein von UiPath gehostetes Skript aus, das die oben genannten Ressourcen automatisch herunterlädt und installiert. Sobald das Skript abgeschlossen und die Ressourcen installiert sind, ist zum Starten einer Serverinstanz eines Machine Learning-Modells eine ZIP-Datei mit dem Modell erforderlich. Diese ZIP-Datei enthält ein Einstiegspunktskript und ein lokales Geschwindigkeitstestskript.

Wenn Sie mehr über die technischen Details dieses Skripts erfahren möchten, können Sie das UiPath Infrastructure Github-Repository besuchen.

Linux RHEL

Die folgenden Ressourcen müssen auf der Maschine installiert sein, auf der Sie die Bereitstellung durchführen möchten:

  • CUDA v11.1
  • cuDNN8 v8.2.1
  • Podman

Der Einfachheit halber stellt UiPath ein Skript zum Installieren dieser Voraussetzungen bereit. Dieses Skript wird „wie besehen“ bereitgestellt, ohne dass eine stillschweigende oder explizite Garantie erforderlich ist. Um die Voraussetzungen mithilfe dieses Skripts zu installieren, führen Sie die folgende Zeile im Terminal der GPU-Maschine aus:

curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_podman_rhel8.sh | sudo bash -s -- --env gpucurl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_podman_rhel8.sh | sudo bash -s -- --env gpu
Hinweis: Nach dem Ausführen des Installationsskripts ist ein Neustart erforderlich.

Diese Zeile führt ein von UiPath gehostetes Skript aus, das die oben genannten Ressourcen automatisch herunterlädt und installiert. Sobald das Skript abgeschlossen und die Ressourcen installiert sind, ist zum Starten einer Serverinstanz eines Machine Learning-Modells eine ZIP-Datei mit dem Modell erforderlich. Diese ZIP-Datei enthält ein Einstiegspunktskript und ein lokales Geschwindigkeitstestskript.

Wenn Sie mehr über die technischen Details dieses Skripts erfahren möchten, können Sie das UiPath Infrastructure Github-Repository besuchen.

  • Microsoft Windows
  • Ubuntu
  • Linux RHEL

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
UiPath Logo weiß
Vertrauen und Sicherheit
© 2005-2024 UiPath. All rights reserved.