ai-computer-vision
2023.4
false
  • Notas de versão
    • 2023.4.10.2
    • 2023.4.10.1
    • 2023.4.0
  • Visão geral
  • Configuração e Instalação
    • Requisitos de software
    • Requisitos de Hardware
    • Implantação do servidor
    • Conexão ao servidor
    • Licenciamento
  • Armazenamento de dados
UiPath logo, featuring letters U and I in white
Guia do usuário do AI Computer Vision
Automation CloudAutomation Cloud Public SectorAutomation SuiteStandalone
Last updated 11 de nov de 2024

Implantação do servidor

Se você quiser implantar seu próprio servidor do Computer Vision com Docker no Microsoft Windows ou Ubuntu ou com Podman no Red Hat Enterprise Linux e usá-lo com atividades do Computer Vision, siga as etapas abaixo.

Microsoft Windows

Antes de implantar o servidor, certifique-se de verificar os requisitos de software e hardware.

Instalando o WSL

Primeiro, o WSL deve ser instalado em sua máquina.

Para instalar o WSL, execute o seguinte comando, em que {distribution} é a distribuição do Linux que você deseja usar:
wsl --install -d {distribution}wsl --install -d {distribution}
Observação: o sistema operacional recomendado para esse processo de instalação é o Ubuntu.

Instalação de drivers Nvidia

Para executar o servidor do Computer Vision em uma máquina Windows, você deve baixar e instalar o driver de exibição Nvidia para Windows 11 no sistema com uma placa GeForce ou Nvidia RTX/quatro compatível do site oficial da Nvidia.

Importante: Qualquer tipo de driver de exibição do Linux instalado no WSL pode causar erros.

Instalação do Podman e do kit de ferramentas do contêiner Nvidia

Você pode instalar o Podman e o Kit de ferramentas do contêiner Nvidia executando o seguinte script:

https://github.com/UiPath/Infrastructure/blob/main/ML/ml_prereq_all.shhttps://github.com/UiPath/Infrastructure/blob/main/ML/ml_prereq_all.sh

Executando o servidor

Para executar o Computer Vision Server, você deve executar os seguintes comandos no WSL Linux Terminal:

podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/ \--security-opt=label=disable --device=nvidia.com/gpu=all controls_detection eula=acceptpodman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/ \--security-opt=label=disable --device=nvidia.com/gpu=all controls_detection eula=accept

Disponibilização do servidor na rede

Para que o servidor fique visível na rede local, deve ser criada uma regra de firewall no Windows, com uma Inbound Rule para a porta em que o servidor Computer Vision está disponível. Por padrão, a porta é 8501.

Como a instância do Linux em execução no WSL tem seu próprio controlador de interface de rede virtual, o tráfego para o IP do host não é redirecionado diretamente para o IP da instância do Linux. Esse problema pode ser contornado encaminhando o tráfego do IP do host para a instância do Linux com o seguinte comando:

netsh interface portproxy add v4tov4 listenaddress=0.0.0.0 listenport=8501 connectaddress=$wsl_ip connectport=8501netsh interface portproxy add v4tov4 listenaddress=0.0.0.0 listenport=8501 connectaddress=$wsl_ip connectport=8501

O WSL IP pode ser encontrado com o seguinte comando:

wsl -d {distribution} hostname -Iwsl -d {distribution} hostname -I
Observação: esse problema não aparece ao usar o Docker Desktop no Windows.

Início automático do servidor

Ao usar o Docker Engine instalado diretamente no Linux, para iniciar automaticamente o servidor quando a máquina inicializar, uma Tarefa Agendada deve ser criada no Windows. Esta tarefa é executada na inicialização do sistema e executa o seguinte script do PowerShell, em que {distribution} é a distribuição do Linux instalada:
wsl -d {distribution} echo "starting...";
$wsl_ips = (wsl -d {distribution} hostname -I);
$host_ip = $wsl_ips.Split(" ")[0];
netsh interface portproxy add v4tov4 listenport=8501 listenaddress=0.0.0.0 connectport=8501 connectaddress=$host_ip;
wsl -d {distribution} -u root service docker start;
wsl -d {distribution} -u root docker run -p 8501:5000 --gpus all controls_detection eula=accept;wsl -d {distribution} echo "starting...";
$wsl_ips = (wsl -d {distribution} hostname -I);
$host_ip = $wsl_ips.Split(" ")[0];
netsh interface portproxy add v4tov4 listenport=8501 listenaddress=0.0.0.0 connectport=8501 connectaddress=$host_ip;
wsl -d {distribution} -u root service docker start;
wsl -d {distribution} -u root docker run -p 8501:5000 --gpus all controls_detection eula=accept;

Restrições de instalação

Este processo de instalação requer uma máquina que suporte a virtualização aninhada. Atualmente, a maioria das VMs em nuvem não oferece suporte à virtualização aninhada para máquinas GPU. Concluindo, esse processo de instalação é mais adequado para clientes que possuem servidores Windows físicos com GPUs.

Linux RHEL / Ubuntu

Antes de implantar o servidor, certifique-se de verificar os requisitos de software e hardware.

Todos os comandos listados nesta página devem ser executados em um terminal na Máquina GPU.

Download da exportação de imagem do servidor do Computer Vision

Salve o link fornecido por seu representante de vendas na sessão de terminal atual:

export CV_URL="LINK_FROM_SALES_REP"export CV_URL="LINK_FROM_SALES_REP"

Baixe a exportação:

wget "$CV_URL" -O controls_detection.tarwget "$CV_URL" -O controls_detection.tar

Carregar a imagem no Podman

Execute o seguinte comando:

podman load -i controls_detection.tarpodman load -i controls_detection.tar

Iniciando o servidor

Execute o seguinte comando:

podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/ \--security-opt=label=disable --device=nvidia.com/gpu=all controls_detection eula=acceptpodman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/ \--security-opt=label=disable --device=nvidia.com/gpu=all controls_detection eula=accept

Atualização do modelo do Computer Vision

A atualização do modelo é equivalente à instalação de uma nova versão dele. Isso ocorre porque a atualização implica alterar o próprio modelo e também seus binários, o que inevitavelmente faz o servidor parar de funcionar.

Se você quiser realizar a atualização na mesma máquina de servidor, deverá esperar algum tempo de inatividade. Para evitar esse cenário, você pode simplesmente instalar a nova versão em uma máquina de servidor diferente e, quando a instalação for concluída, alternar o tráfego para ela.

Um cenário de atualização padrão se parece com isto:

  1. Prepare-se e anuncie o tempo de inatividade (se aplicável).
  2. Instale o novo modelo no lugar do antigo.
  3. Execute o servidor.

Se o seu ambiente usa uma configuração de balanceador de carga de vários nós, você pode evitar o tempo de inatividade reinstalando cada nó, um de cada vez.

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo White
Confiança e segurança
© 2005-2024 UiPath. Todos os direitos reservados.