automation-suite
2023.10
true
Guía de instalación de Automation Suite en Linux
Last updated 6 de sep. de 2024

Inclusión de un nodo agente dedicado compatible con GPU

Nota:

En la actualidad, Automation Suite solo es compatible con los controladores de GPU Nvidia. Consulta la lista de sistemas operativos compatibles con la GPU.

Para obtener más información sobre los tipos de instancia específicos de la nube, consulte lo siguiente:

Antes de añadir un nodo agente dedicado compatible con GPU, comprueba los Requisitos de hardware.

Instalar un controlador de GPU en la máquina

Nota:
  • Las siguientes instrucciones se aplican tanto a las instalaciones de Automation Suite en línea como sin conexión. En el caso de las instalaciones sin conexión, debes garantizar el acceso temporal a Internet para recuperar las dependencias del controlador de GPU necesarias. Si tienes problemas al instalar el controlador de la GPU, ponte en contacto con el soporte de Nvidia.

  • El controlador de la GPU se almacena en las carpetas /opt/nvidia y /usr. Se recomienda encarecidamente que estas carpetas tengan al menos 5 GiB y 15 GiB, respectivamente, en la máquina del agente de la GPU.
  1. Para instalar el controlador de GPU en el nodo agente, ejecute el siguiente comando:
    sudo yum install kernel kernel-tools kernel-headers kernel-devel 
    sudo reboot
    sudo yum install https://dl.fedoraproject.org/pub/epel/epel-release-latest-8.noarch.rpm
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel.repo
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel-modular.repo
    sudo yum config-manager --add-repo http://developer.download.nvidia.com/compute/cuda/repos/rhel8/x86_64/cuda-rhel8.repo
    sudo yum install cudasudo yum install kernel kernel-tools kernel-headers kernel-devel 
    sudo reboot
    sudo yum install https://dl.fedoraproject.org/pub/epel/epel-release-latest-8.noarch.rpm
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel.repo
    sudo sed 's/$releasever/8/g' -i /etc/yum.repos.d/epel-modular.repo
    sudo yum config-manager --add-repo http://developer.download.nvidia.com/compute/cuda/repos/rhel8/x86_64/cuda-rhel8.repo
    sudo yum install cuda
  2. Para instalar los kits de herramientas para contenedores, ejecute el siguiente comando:
    curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
            sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
            sudo yum-config-manager --enable nvidia-container-toolkit-experimental
            sudo yum install -y nvidia-container-toolkitcurl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
            sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
            sudo yum-config-manager --enable nvidia-container-toolkit-experimental
            sudo yum install -y nvidia-container-toolkit

Compruebe si los controladores se han instalado correctamente.

Ejecute el comando sudo nvidia-smi en el nodo para comprobar si los controladores se instalaron correctamente.


Nota: una vez aprovisionado el clúster, se requieren pasos adicionales para configurar las GPU aprovisionadas.

Llegados a este punto, los controladores de GPU ya se han instalado y se han añadido los nodos de GPU al clúster.

Inclusión de un nodo de GPU al clúster

Paso 1: Configurar la máquina

Para garantizar que el disco se divide correctamente y se cumplen todos los requisitos de red, consulta Paso 6: configurar los discos.

Step 2: Copying the interactive installer to the target machine

  1. SSH a cualquier máquina del servidor.
  2. Ejecute el siguiente comando para copiar el contenido de la carpeta UiPathAutomationSuite en el nodo de GPU (el nombre de usuario y el DNS son específicos del nodo de GPU):
    sudo su -
    scp -r /opt/UiPathAutomationSuite <username>@<node dns>:/opt/
    scp -r ~/* <username>@<node dns>:/opt/UiPathAutomationSuite/sudo su -
    scp -r /opt/UiPathAutomationSuite <username>@<node dns>:/opt/
    scp -r ~/* <username>@<node dns>:/opt/UiPathAutomationSuite/

Step 3: Running the interactive installer to configure the dedicated node

  1. SSH al nodo de GPU.
  2. Ejecuta los siguientes comandos:
    sudo su -
    cd /opt/UiPathAutomationSuite
    chmod -R 755 /opt/UiPathAutomationSuite
    yum install unzip jq -y
    CONFIG_PATH=/opt/UiPathAutomationSuite/cluster_config.json 
    
    install-uipath.sh -i /opt/UiPathAutomationSuite/cluster_config.json -o output.json -k -j gpu --accept-license-agreementsudo su -
    cd /opt/UiPathAutomationSuite
    chmod -R 755 /opt/UiPathAutomationSuite
    yum install unzip jq -y
    CONFIG_PATH=/opt/UiPathAutomationSuite/cluster_config.json 
    
    install-uipath.sh -i /opt/UiPathAutomationSuite/cluster_config.json -o output.json -k -j gpu --accept-license-agreement

Enabling the GPU on the cluster

  1. Inicie sesión en cualquier nodo del servidor.
  2. Navega a la carpeta del instalador (UiPathAutomationSuite).
    cd /opt/UiPathAutomationSuitecd /opt/UiPathAutomationSuite
  3. Habilite la GPU en el clúster ejecutando el siguiente comando en cualquier nodo del servidor:
    sudo ./configureUiPathAS.sh gpu enablesudo ./configureUiPathAS.sh gpu enable

¿Te ha resultado útil esta página?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Uipath Logo White
Confianza y seguridad
© 2005-2024 UiPath. Todos los derechos reservados.