- Notas de versão
- Visão geral
- Configuração e Instalação
- Requisitos de software
- Requisitos de Hardware
- Implantação do servidor
- Conexão ao servidor
- Licenciamento
- Armazenamento de dados
Implantação do servidor
Se você quiser implantar seu próprio servidor do Computer Vision com Docker no Microsoft Windows ou Ubuntu ou com Podman no Red Hat Enterprise Linux e usá-lo com atividades do Computer Vision, siga as etapas abaixo.
Primeiro, o WSL deve ser instalado em sua máquina.
{distribution}
é a distribuição do Linux que você deseja usar:
wsl --install -d {distribution}
wsl --install -d {distribution}
Para executar o servidor do Computer Vision em uma máquina Windows, você deve baixar e instalar o driver de exibição Nvidia para Windows 11 no sistema com uma placa GeForce ou Nvidia RTX/quatro compatível do site oficial da Nvidia.
Você pode instalar o Docker e o Kit de ferramentas do contêiner Nvidia executando o seguinte script:
https://github.com/UiPath/Infrastructure/blob/main/ML/ml_prereq_wsl.sh
https://github.com/UiPath/Infrastructure/blob/main/ML/ml_prereq_wsl.sh
Para executar o Computer Vision Server, você deve executar os seguintes comandos no WSL Linux Terminal:
export CV_URL="LINK_FROM_SALES_REP"
wget "$CV_URL" -O controls_detection.tar
docker load -i controls_detection.tar
docker run -p 8501:5000 --gpus all controls_detection eula=accept
export CV_URL="LINK_FROM_SALES_REP"
wget "$CV_URL" -O controls_detection.tar
docker load -i controls_detection.tar
docker run -p 8501:5000 --gpus all controls_detection eula=accept
8501
.
Como a instância do Linux em execução no WSL tem seu próprio controlador de interface de rede virtual, o tráfego para o IP do host não é redirecionado diretamente para o IP da instância do Linux. Esse problema pode ser contornado encaminhando o tráfego do IP do host para a instância do Linux com o seguinte comando:
netsh interface portproxy add v4tov4 listenaddress=0.0.0.0 listenport=8501 connectaddress=$wsl_ip connectport=8501
netsh interface portproxy add v4tov4 listenaddress=0.0.0.0 listenport=8501 connectaddress=$wsl_ip connectport=8501
O WSL IP pode ser encontrado com o seguinte comando:
wsl -d {distribution} hostname -I
wsl -d {distribution} hostname -I
{distribution}
é a distribuição do Linux instalada:
wsl -d {distribution} echo "starting...";
$wsl_ips = (wsl -d {distribution} hostname -I);
$host_ip = $wsl_ips.Split(" ")[0];
netsh interface portproxy add v4tov4 listenport=8501 listenaddress=0.0.0.0 connectport=8501 connectaddress=$host_ip;
wsl -d {distribution} -u root service docker start;
wsl -d {distribution} -u root docker run -p 8501:5000 --gpus all controls_detection eula=accept;
wsl -d {distribution} echo "starting...";
$wsl_ips = (wsl -d {distribution} hostname -I);
$host_ip = $wsl_ips.Split(" ")[0];
netsh interface portproxy add v4tov4 listenport=8501 listenaddress=0.0.0.0 connectport=8501 connectaddress=$host_ip;
wsl -d {distribution} -u root service docker start;
wsl -d {distribution} -u root docker run -p 8501:5000 --gpus all controls_detection eula=accept;
Este processo de instalação requer uma máquina que suporte a virtualização aninhada. Atualmente, a maioria das VMs em nuvem não oferece suporte à virtualização aninhada para máquinas GPU. Concluindo, esse processo de instalação é mais adequado para clientes que possuem servidores Windows físicos com GPUs.
Todos os comandos listados nesta página devem ser executados em um terminal na Máquina GPU.
Salve o link fornecido por seu representante de vendas na sessão de terminal atual:
export CV_URL="LINK_FROM_SALES_REP"
export CV_URL="LINK_FROM_SALES_REP"
Baixe a exportação:
wget "$CV_URL" -O controls_detection.tar
wget "$CV_URL" -O controls_detection.tar
Execute o seguinte comando:
docker load -i controls_detection.tar
docker load -i controls_detection.tar
Execute o seguinte comando:
docker run \
-p 8501:5000 \
--gpus all \
controls_detection eula=accept
docker run \
-p 8501:5000 \
--gpus all \
controls_detection eula=accept
A atualização do modelo é equivalente à instalação de uma nova versão dele. Isso ocorre porque a atualização implica alterar o próprio modelo e também seus binários, o que inevitavelmente faz o servidor parar de funcionar.
Se você quiser realizar a atualização na mesma máquina de servidor, deverá esperar algum tempo de inatividade. Para evitar esse cenário, você pode simplesmente instalar a nova versão em uma máquina de servidor diferente e, quando a instalação for concluída, alternar o tráfego para ela.
Um cenário de atualização padrão se parece com isto:
- Prepare-se e anuncie o tempo de inatividade (se aplicável).
- Instale o novo modelo no lugar do antigo.
- Execute o servidor.
Se o seu ambiente usa uma configuração de balanceador de carga de vários nós, você pode evitar o tempo de inatividade reinstalando cada nó, um de cada vez.
Todos os comandos listados nesta página devem ser executados em um terminal na Máquina GPU.
Salve o link fornecido por seu representante de vendas na sessão de terminal atual:
export CV_URL="LINK_FROM_SALES_REP"
export CV_URL="LINK_FROM_SALES_REP"
Baixe a exportação:
wget "$CV_URL" -O controls_detection.tar
wget "$CV_URL" -O controls_detection.tar
Execute o seguinte comando:
podman load -i controls_detection.tar
podman load -i controls_detection.tar
Execute o seguinte comando:
podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/
\--security-opt=label=disable controls_detection eula=accept
podman run -p 8501:5000 --hooks-dir=/usr/share/containers/oci/hooks.d/
\--security-opt=label=disable controls_detection eula=accept
A atualização do modelo é equivalente à instalação de uma nova versão dele. Isso ocorre porque a atualização implica alterar o próprio modelo e também seus binários, o que inevitavelmente faz o servidor parar de funcionar.
Se você quiser realizar a atualização na mesma máquina de servidor, deverá esperar algum tempo de inatividade. Para evitar esse cenário, você pode simplesmente instalar a nova versão em uma máquina de servidor diferente e, quando a instalação for concluída, alternar o tráfego para ela.
Um cenário de atualização padrão se parece com isto:
- Prepare-se e anuncie o tempo de inatividade (se aplicável).
- Instale o novo modelo no lugar do antigo.
- Execute o servidor.
Se o seu ambiente usa uma configuração de balanceador de carga de vários nós, você pode evitar o tempo de inatividade reinstalando cada nó, um de cada vez.
- Microsoft Windows
- Instalando o WSL
- Instalação de drivers Nvidia
- Instalando o Docker e o Nvidia Container Toolkit
- Executando o servidor
- Disponibilização do servidor na rede
- Início automático do servidor
- Restrições de instalação
- Ubuntu
- Download da exportação de imagem do servidor do Computer Vision
- Carregando a imagem no Docker
- Iniciando o servidor
- Atualização do modelo do Computer Vision
- Linux RHEL
- Download da exportação de imagem do servidor do Computer Vision
- Carregar a imagem no Podman
- Iniciando o servidor
- Atualização do modelo do Computer Vision