automation-suite
2022.4
false
Important :
Veuillez noter que ce contenu a été localisé en partie à l’aide de la traduction automatique. La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
UiPath logo, featuring letters U and I in white

Guide d'installation d'Automation Suite

Dernière mise à jour 19 déc. 2024

Ajout d'un nœud d'agent dédié avec prise en charge GPU

Remarque :

Automation Suite ne prend actuellement en charge que les pilotes GPU Nvidia. Consultez la liste des systèmes d'exploitation compatibles avec le GPU.

Pour plus d'informations sur les types d'instances spécifiques au cloud, consultez les pages suivantes :

Avant d'ajouter un nœud d'agent dédié avec prise en charge GPU, assurez-vous de vérifier la configuration matérielle requise.

Pour plus d'exemples de déploiement de NVIDIA CUDA sur un GPU, consultez cette page.

Installation d'un pilote GPU sur la machine

Remarque :
  • Les instructions suivantes s’appliquent aux installations d’Automation Suite en ligne et hors ligne. Dans le cas des installations hors ligne, vous devez assurer un accès temporaire à Internet afin de récupérer les dépendances requises du pilote GPU. Si vous rencontrez des problèmes lors de l’installation du pilote GPU, contactez l’assistance Nvidia.

  • Le pilote GPU est stocké dans les dossiers /opt/nvidia et /usr. Il est fortement recommandé que la taille de ces dossiers soit d’au moins 5 Gio et 15 Gio, respectivement, sur la machine de l’agent GPU.
  1. Pour installer le pilote GPU sur le nœud de l'agent, exécutez la commande suivante :
    sudo yum install kernel kernel-tools kernel-headers kernel-devel 
    sudo reboot
    sudo yum install https://dl.fedoraproject.org/pub/epel/epel-release-latest-8.noarch.rpm
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel.repo
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel-modular.repo
    sudo yum config-manager --add-repo http://developer.download.nvidia.com/compute/cuda/repos/rhel8/x86_64/cuda-rhel8.repo
    sudo yum install cudasudo yum install kernel kernel-tools kernel-headers kernel-devel 
    sudo reboot
    sudo yum install https://dl.fedoraproject.org/pub/epel/epel-release-latest-8.noarch.rpm
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel.repo
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel-modular.repo
    sudo yum config-manager --add-repo http://developer.download.nvidia.com/compute/cuda/repos/rhel8/x86_64/cuda-rhel8.repo
    sudo yum install cuda
  2. Pour installer les boîtes à outils de conteneur, exécutez la commande suivante :
    curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
            sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
            sudo yum-config-manager --enable nvidia-container-toolkit-experimental
            sudo yum install -y nvidia-container-toolkitcurl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
            sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
            sudo yum-config-manager --enable nvidia-container-toolkit-experimental
            sudo yum install -y nvidia-container-toolkit

Vérifiez si les pilotes ont été correctement installés

Exécutez la commande sudo nvidia-smi sur le nœud pour vérifier si les pilotes ont été installés correctement.


Remarque : Une fois le cluster enregistré, des étapes supplémentaires sont nécessaires pour configurer les GPU enregistrés.

À ce stade, les pilotes GPU ont été installés et les nœuds GPU ont été ajoutés au cluster.

Ajouter un nœud GPU au cluster

Première étape : configurer la machine

Suivez les étapes de configuration de la machine pour vous assurer que le disque est correctement partitionné et que toutes les exigences de mise en réseau sont remplies.

Étape 2 : copie du programme d'installation interactif sur la machine cible

Pour une installation en ligne

  1. SSH vers n'importe quelle machine du serveur.
  2. Exécutez la commande suivante pour copier le contenu du dossier UiPathAutomationSuite dans la tâche nœud GPU (GPU node) (le nom d'utilisateur et le DNS sont spécifiques au nœud GPU) :
    sudo su -
    scp -r /opt/UiPathAutomationSuite <username>@<node dns>:/opt/
    scp -r ~/* <username>@<node dns>:/opt/UiPathAutomationSuite/sudo su -
    scp -r /opt/UiPathAutomationSuite <username>@<node dns>:/opt/
    scp -r ~/* <username>@<node dns>:/opt/UiPathAutomationSuite/

Pour une installation hors ligne

  1. SSH vers n'importe quel nœud du serveur.
  2. Assurez-vous que le répertoire /opt/UiPathAutomationSuite contient le fichier sf-infra.tar.gz (fait partie de l'étape de téléchargement du package d'installation )
    scp -r ~/opt/UiPathAutomationSuite <username>@<node dns>:/var/tmpscp -r ~/opt/UiPathAutomationSuite <username>@<node dns>:/var/tmp

Troisième étape : exécuter l'assistant d'installation interactif pour configurer le nœud dédié

Pour une installation en ligne

  1. SSH vers le nœud GPU (GPU Node).
  2. Exécutez les commandes suivantes :

    sudo su -
    cd /opt/UiPathAutomationSuite
    chmod -R 755 /opt/UiPathAutomationSuite
    yum install unzip jq -y
    CONFIG_PATH=/opt/UiPathAutomationSuite/cluster_config.json 
    
    UNATTENDED_ACTION="accept_eula,download_bundle,extract_bundle,join_gpu" ./installUiPathAS.shsudo su -
    cd /opt/UiPathAutomationSuite
    chmod -R 755 /opt/UiPathAutomationSuite
    yum install unzip jq -y
    CONFIG_PATH=/opt/UiPathAutomationSuite/cluster_config.json 
    
    UNATTENDED_ACTION="accept_eula,download_bundle,extract_bundle,join_gpu" ./installUiPathAS.sh

Pour une installation hors ligne

  1. Connectez-vous via SSH au nœud dédié du GPU.
  2. Installez le bundle de plate-forme sur le nœud dédié du GPU à l'aide du script suivant :

    sudo su 
    mv /var/tmp/UiPathAutomationSuite /opt
    cd /opt/UiPathAutomationSuite
    chmod -R 755 /opt/UiPathAutomationSuite
    
    ./install-uipath.sh -i ./cluster_config.json -o ./output.json -k -j gpu --offline-bundle ./sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp --install-offline-prereqs --accept-license-agreementsudo su 
    mv /var/tmp/UiPathAutomationSuite /opt
    cd /opt/UiPathAutomationSuite
    chmod -R 755 /opt/UiPathAutomationSuite
    
    ./install-uipath.sh -i ./cluster_config.json -o ./output.json -k -j gpu --offline-bundle ./sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp --install-offline-prereqs --accept-license-agreement

Activation du GPU sur le cluster

  1. Connectez-vous à n'importe quel nœud de serveur.
  2. Accédez au dossier du programme d'installation ( UiPathAutomationSuite ).
    cd /opt/UiPathAutomationSuitecd /opt/UiPathAutomationSuite
  3. Activez le GPU sur le cluster en exécutant la commande suivante sur n'importe quel nœud de serveur :

    sudo ./configureUiPathAS.sh gpu enablesudo ./configureUiPathAS.sh gpu enable

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo White
Confiance et sécurité
© 2005-2024 UiPath Tous droits réservés.