- Notes de publication
- Vue d'ensemble (Overview)
- Paramétrage et configuration
- Prérequis logiciels
- Prérequis matériels
- Déploiement du serveur
- Connexion au serveur
- Licences
- Stockage de données

Guide de l’utilisateur d’AI Computer Vision
Si vous souhaitez déployer votre propre serveur Computer Vision avec Docker sur Microsoft Windows ou Ubuntu ou avec Podman sur Red Hat Enterprise Linux et l'utiliser avec les activités Computer Vision, suivez les étapes ci-dessous.
Installation de WSL
Tout d'abord, WSL doit être installé sur votre machine.
{distribution}
est la distribution Linux que vous souhaitez utiliser :
wsl --install -d {distribution}
wsl --install -d {distribution}
Installation des pilotes Nvidia
Pour exécuter le serveur de Computer Vision sur une machine Windows, vous devez télécharger et installer le pilote d'affichage Nvidia Windows 11 sur le système avec une carte GeForce ou Nvidia RTR/Quadro compatible depuis le site officiel de Nvidia.
Installation de Podman et de l'outil de conteneur Nvidia
Vous pouvez installer à la fois Podman et Nvidia Container Toolkit en exécutant le script suivant :
https://github.com/UiPath/Infrastructure/blob/main/ML/ml_prereq_all.sh
https://github.com/UiPath/Infrastructure/blob/main/ML/ml_prereq_all.sh
Exécution du serveur
Pour exécuter le serveur Computer Vision, vous devez exécuter les commandes suivantes dans le terminal WSL Linux :
podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/ \--security-opt=label=disable --device=nvidia.com/gpu=all controls_detection eula=accept
podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/ \--security-opt=label=disable --device=nvidia.com/gpu=all controls_detection eula=accept
Rendre le serveur disponible sur le réseau
8501
.
Étant donné que l'instance Linux exécutée dans WSL possède son propre contrôleur d'interface réseau virtuelle, le trafic vers l'adresse IP de l'hôte n'est pas directement redirigé vers l'adresse IP de l'instance Linux. Ce problème peut être contourné en transférant le trafic de l'adresse IP de l'hôte vers l'instance Linux à l'aide de la commande suivante :
netsh interface portproxy add v4tov4 listenaddress=0.0.0.0 listenport=8501 connectaddress=$wsl_ip connectport=8501
netsh interface portproxy add v4tov4 listenaddress=0.0.0.0 listenport=8501 connectaddress=$wsl_ip connectport=8501
L'IP WSL peut être trouvée avec la commande suivante :
wsl -d {distribution} hostname -I
wsl -d {distribution} hostname -I
Démarrage automatique du serveur
{distribution}
est la distribution Linux installée :
wsl -d {distribution} echo "starting...";
$wsl_ips = (wsl -d {distribution} hostname -I);
$host_ip = $wsl_ips.Split(" ")[0];
netsh interface portproxy add v4tov4 listenport=8501 listenaddress=0.0.0.0 connectport=8501 connectaddress=$host_ip;
wsl -d {distribution} -u root service docker start;
wsl -d {distribution} -u root docker run -p 8501:5000 --gpus all controls_detection eula=accept;
wsl -d {distribution} echo "starting...";
$wsl_ips = (wsl -d {distribution} hostname -I);
$host_ip = $wsl_ips.Split(" ")[0];
netsh interface portproxy add v4tov4 listenport=8501 listenaddress=0.0.0.0 connectport=8501 connectaddress=$host_ip;
wsl -d {distribution} -u root service docker start;
wsl -d {distribution} -u root docker run -p 8501:5000 --gpus all controls_detection eula=accept;
Contraintes d'installation
Ce processus d'installation nécessite une machine qui prend en charge la virtualisation imbriquée. Actuellement, la plupart des VM Cloud ne prennent pas en charge la virtualisation imbriquée pour les machines GPU. En conclusion, ce processus d'installation convient mieux aux clients qui disposent de serveurs Windows physiques avec GPU.
Toutes les commandes répertoriées sur cette page doivent être exécutées dans un terminal sur la machine GPU.
Téléchargement de l'exportation d'image du serveur Computer Vision
Enregistrez le lien qui vous a été fourni par votre représentant commercial dans la session de terminal en cours :
export CV_URL="LINK_FROM_SALES_REP"
export CV_URL="LINK_FROM_SALES_REP"
Téléchargez l'exportation :
wget "$CV_URL" -O controls_detection.tar
wget "$CV_URL" -O controls_detection.tar
Chargement de l'image dans Podman
Exécutez la commande suivante :
podman load -i controls_detection.tar
podman load -i controls_detection.tar
Démarrage du serveur
Exécutez la commande suivante :
podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/ \--security-opt=label=disable --device=nvidia.com/gpu=all controls_detection eula=accept
podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/ \--security-opt=label=disable --device=nvidia.com/gpu=all controls_detection eula=accept
Mise à niveau du modèle Computer Vision
La mise à niveau du modèle équivaut à l'installation d'une nouvelle version de celui-ci. En effet, la mise à niveau implique de modifier le modèle lui-même ainsi que ses fichiers binaires, ce qui entraîne inévitablement l'arrêt du serveur.
Si vous souhaitez effectuer la mise à niveau sur la même machine serveur, des temps d'arrêt sont à prévoir. Pour éviter ce scénario, il vous suffit d'installer la nouvelle version sur une autre machine serveur, et une fois l'installation terminée, de basculer le trafic vers celle-ci.
Un scénario de mise à niveau standard ressemble à ceci :
- Préparez-vous et annoncez les temps d’arrêt (le cas échéant).
- Installez le nouveau modèle à la place de l'ancien.
- Exécutez le serveur.
Si votre environnement utilise une configuration d'équilibreur de charge multi-nœuds, vous pouvez éviter complètement les temps d'arrêt en réinstallant chaque nœud, un par un.
- Microsoft Windows
- Installation de WSL
- Installation des pilotes Nvidia
- Installation de Podman et de l'outil de conteneur Nvidia
- Exécution du serveur
- Rendre le serveur disponible sur le réseau
- Démarrage automatique du serveur
- Contraintes d'installation
- Linux RHEL/Ubunnot
- Téléchargement de l'exportation d'image du serveur Computer Vision
- Chargement de l'image dans Podman
- Démarrage du serveur
- Mise à niveau du modèle Computer Vision