automation-suite
2023.10
true
Guide d'installation d'Automation Suite sur Linux
Last updated 4 oct. 2024

Ajout d'un nœud d'agent dédié avec prise en charge GPU

Remarque :

Automation Suite ne prend actuellement en charge que les pilotes GPU Nvidia. Consultez la liste des systèmes d'exploitation compatibles avec le GPU.

Pour plus d'informations sur les types d'instances spécifiques au cloud, consultez les pages suivantes :

Avant d'ajouter un nœud d'agent dédié avec prise en charge GPU, assurez-vous de vérifier la configuration matérielle requise.

Installation d'un pilote GPU sur la machine

Remarque :
  • Les instructions suivantes s’appliquent aux installations d’Automation Suite en ligne et hors ligne. Dans le cas des installations hors ligne, vous devez assurer un accès temporaire à Internet afin de récupérer les dépendances requises du pilote GPU. Si vous rencontrez des problèmes lors de l’installation du pilote GPU, contactez l’assistance Nvidia.

  • Le pilote GPU est stocké dans les dossiers /opt/nvidia et /usr. Il est fortement recommandé que la taille de ces dossiers soit d’au moins 5 Gio et 15 Gio, respectivement, sur la machine de l’agent GPU.
  1. Pour installer le pilote GPU sur le nœud de l'agent, exécutez la commande suivante :
    sudo yum install kernel kernel-tools kernel-headers kernel-devel 
    sudo reboot
    sudo yum install https://dl.fedoraproject.org/pub/epel/epel-release-latest-8.noarch.rpm
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel.repo
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel-modular.repo
    sudo yum config-manager --add-repo http://developer.download.nvidia.com/compute/cuda/repos/rhel8/x86_64/cuda-rhel8.repo
    sudo yum install cudasudo yum install kernel kernel-tools kernel-headers kernel-devel 
    sudo reboot
    sudo yum install https://dl.fedoraproject.org/pub/epel/epel-release-latest-8.noarch.rpm
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel.repo
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel-modular.repo
    sudo yum config-manager --add-repo http://developer.download.nvidia.com/compute/cuda/repos/rhel8/x86_64/cuda-rhel8.repo
    sudo yum install cuda
  2. Pour installer les boîtes à outils de conteneur, exécutez la commande suivante :
    curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
            sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
            sudo yum-config-manager --enable nvidia-container-toolkit-experimental
            sudo yum install -y nvidia-container-toolkitcurl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
            sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
            sudo yum-config-manager --enable nvidia-container-toolkit-experimental
            sudo yum install -y nvidia-container-toolkit

Vérifiez si les pilotes ont été correctement installés

Exécutez la commande sudo nvidia-smi sur le nœud pour vérifier si les pilotes ont été installés correctement.


Remarque : Une fois le cluster enregistré, des étapes supplémentaires sont nécessaires pour configurer les GPU enregistrés.

À ce stade, les pilotes GPU ont été installés et les nœuds GPU ont été ajoutés au cluster.

Ajouter un nœud GPU au cluster

Première étape : configurer la machine

Pour vous assurer que le disque est correctement partitionné et que toutes les exigences de mise en réseau sont remplies, consultez Étape 6 : Configuration des disques.

Étape 2 : copie du programme d'installation interactif sur la machine cible

  1. SSH vers n'importe quelle machine du serveur.
  2. Exécutez la commande suivante pour copier le contenu du dossier UiPathAutomationSuite dans la tâche nœud GPU (GPU node) (le nom d'utilisateur et le DNS sont spécifiques au nœud GPU) :
    sudo su -
    scp -r /opt/UiPathAutomationSuite <username>@<node dns>:/opt/
    scp -r ~/* <username>@<node dns>:/opt/UiPathAutomationSuite/sudo su -
    scp -r /opt/UiPathAutomationSuite <username>@<node dns>:/opt/
    scp -r ~/* <username>@<node dns>:/opt/UiPathAutomationSuite/

Étape 3 : Exécution du programme d'installation interactif pour configurer le nœud dédié

  1. SSH vers le nœud GPU (GPU Node).
  2. Exécutez les commandes suivantes :
    sudo su -
    cd /opt/UiPathAutomationSuite
    chmod -R 755 /opt/UiPathAutomationSuite
    yum install unzip jq -y
    CONFIG_PATH=/opt/UiPathAutomationSuite/cluster_config.json 
    
    install-uipath.sh -i /opt/UiPathAutomationSuite/cluster_config.json -o output.json -k -j gpu --accept-license-agreementsudo su -
    cd /opt/UiPathAutomationSuite
    chmod -R 755 /opt/UiPathAutomationSuite
    yum install unzip jq -y
    CONFIG_PATH=/opt/UiPathAutomationSuite/cluster_config.json 
    
    install-uipath.sh -i /opt/UiPathAutomationSuite/cluster_config.json -o output.json -k -j gpu --accept-license-agreement

Activation du GPU sur le cluster

  1. Connectez-vous à n'importe quel nœud de serveur.
  2. Accédez au dossier du programme d'installation ( UiPathAutomationSuite ).
    cd /opt/UiPathAutomationSuitecd /opt/UiPathAutomationSuite
  3. Activez le GPU sur le cluster en exécutant la commande suivante sur n'importe quel nœud de serveur :
    sudo ./configureUiPathAS.sh gpu enablesudo ./configureUiPathAS.sh gpu enable

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo White
Confiance et sécurité
© 2005-2024 UiPath Tous droits réservés.