AI Center
2020.10
falso
Imagem de fundo do banner
AI Center
Última atualização 11 de mar de 2024

4. Execute o instalador da infraestrutura do AI Fabric

Observação: para a instalação no AKS, passe para a Etapa 5. Execute o instalador do aplicativo do AI Fabric

Execute o instalador da infraestrutura do AI Fabric. A conclusão desse instalador produzirá o console de administração do Kots, onde você pode gerenciar atualizações de aplicativos, configuração de aplicativos, uso de recursos (pressão da CPU/memória) e baixar pacotes de suporte para solucionar quaisquer problemas.

Importante: não elimine o processo nem desligue a máquina enquanto esta etapa estiver em execução. Essa etapa será concluída em 15 a 25 minutos. Se você fizer acidentalmente o processo terminar no meio, a máquina precisará ser reprovisionada, e será necessário conectar discos novos.

Instalação online

A primeira etapa é baixar o arquivo zip do instalador aqui e movê-lo para o servidor do AI Fabric. Alternativamente, é possível baixá-lo diretamente da máquina usando o seguinte comando

Importante:

O script baixará alguns arquivos localmente como parte do processo de instalação; certifique-se de que você tenha 4 GB disponíveis no diretório no qual você executará o script.

Por padrão, as VMs do Azure RHEL têm apenas 1 GB disponíveis no diretório home, que é o diretório padrão.

wget https://download.uipath.com/aifabric/online-installer/v2020.10.5/aifabric-installer-v20.10.5.tar.gzwget https://download.uipath.com/aifabric/online-installer/v2020.10.5/aifabric-installer-v20.10.5.tar.gz

Em seguida, descompacte o arquivo e entre na pasta principal usando o seguinte comando:

tar -xvf aifabric-installer-v20.10.5.tar.gz
cd ./aifabric-installer-v20.10.5tar -xvf aifabric-installer-v20.10.5.tar.gz
cd ./aifabric-installer-v20.10.5

Em seguida, é possível executar o instalador do AI Fabric digitando:

./setup.sh./setup.sh

A primeira etapa é aceitar o contrato de licença pressionando Y. Então, o script perguntará qual tipo de plataforma você deseja instalar; entre com OneBox e pressione Enter como na imagem abaixo:



Em seguida, será perguntado se há uma GPU disponível para sua configuração e Y ou N, dependendo do seu hardware. Certifique-se de que os drivers já estejam instalados.



Importante: apenas as GPUs da NVIDIA são suportadas e os drivers precisam ser instalados antes da instalação do AI Fabric.

Dependendo do seu sistema, pode ser solicitado que você pressione Y algumas vezes para a instalação ser concluída.

Essa etapa levará entre 15 e 25 minutos para ser concluída. Após a conclusão, você verá na saída do terminal a mensagem Instalação concluída.

Instalação com lacuna de ar

Na máquina local com acesso a um navegador (por exemplo, um Windows Server), baixe a instalação do pacote usando o link fornecido pelo gerente de sua conta.

Extraia o conteúdo do arquivo baixado usando o 7zip de um explorador de arquivos do Windows ou tar -zxvf aifabric-installer-v2020.10.5.tar.gz a partir de uma máquina que suporte o tar.

Isso criará duas pastas

  • aif_infra_20.10.5.tar.gz contendo componentes da infraestrutura (cerca de 3,6 GB)
  • ai-fabric-v2020.10.5.airgap, contendo componentes do aplicativo (cerca de 8,7 GB). Ele será carregado na UI na etapa 5. Execute o instalador do aplicativo do AI Fabric.
Copie a pasta aif_infra_20.10.5.tar.gz na máquina do AI Fabric isolada.

Em seguida, execute o seguinte comando para iniciar o instalador da infraestrutura:

tar -zxvf aif_infra_20.10.5.tar.gz
cd aif_infra_20.10.5
sudo ./setup.shtar -zxvf aif_infra_20.10.5.tar.gz
cd aif_infra_20.10.5
sudo ./setup.sh

Acesso ao console do administrador

Em ambos os casos, a instalação bem-sucedida gerará o endereço e a senha do KotsAdmin Ui

...
Install Successful:
configmap/kurl-config created
                Installation
                  Complete ✔
Kotsadm: http://13.59.108.17:8800
Login with password (will not be shown again): NNqKCY82S
The UIs of Prometheus, Grafana and Alertmanager have been exposed on NodePorts 30900, 
30902 and 30903 respectively.
To access Grafana use the generated user:password of admin:msDX5VZ9m .
To access the cluster with kubectl, reload your shell:
    bash -l
    
......
Install Successful:
configmap/kurl-config created
                Installation
                  Complete ✔
Kotsadm: http://13.59.108.17:8800
Login with password (will not be shown again): NNqKCY82S
The UIs of Prometheus, Grafana and Alertmanager have been exposed on NodePorts 30900, 
30902 and 30903 respectively.
To access Grafana use the generated user:password of admin:msDX5VZ9m .
To access the cluster with kubectl, reload your shell:
    bash -l
    
...
Observação: do endereço da interface gráfica do kotsadm, este está em <machine-ip>:8800. Em alguns casos, pode ser exibindo o IP interno em vez do IP público; certifique-se de que você esteja usando o IP público se o estiver acessando de fora.
Observação: na linha abaixo você verá a senha de login. Anote essa senha. É possível gerar novamente essa senha se ela tiver sido perdida ou se você quiser redefini-la:
bash -l
kubectl kots reset-password -n defaultbash -l
kubectl kots reset-password -n default

Adição da GPU após a instalação

Se a GPU não estava disponível durante a instalação, mas posteriormente foi adicionada à máquina, será necessário concluir as seguintes etapas para torná-la acessível ao AI Fabric.
  • Verifique se os drivers da GPU estão corretamente instalados executando o seguinte comando:
    nvidia-sminvidia-smi

    Se os drivers da GPU estiverem instalados corretamente, as informações de sua GPU devem ser exibidas. Se ocorrer um erro, isso significa que a GPU não está acessível ou que os drivers não estão instalados corretamente. Esse problema deve ser corrigido antes de prosseguir.

  • Verifique se o NVIDIA Runtime Container está instalado corretamente executando o seguinte comando:
    /usr/bin/nvidia-container-runtime/usr/bin/nvidia-container-runtime
  1. Baixe os dois scripts disponíveis para adicionar a GPU a partir do seguinte link: scripts da GPU.
  2. Execute um script para adicionar a GPU ao cluster, para que os Pipelines e as Habilidades de ML possam usá-lo. Dependendo da sua instalação, escolha uma das seguintes opções:
    • Em caso de instalação online, execute o seguinte script:
      <h1>navigate to where you untar installer (or redo it if you have removed it)
      cd ./aicenter-installer-v21.4.0/infra/common/scripts
      ./attach_gpu_drivers.sh</h1><h1>navigate to where you untar installer (or redo it if you have removed it)
      cd ./aicenter-installer-v21.4.0/infra/common/scripts
      ./attach_gpu_drivers.sh</h1>
    • No caso isolado, primeiro você precisa criar o arquivo no diretório aif_infra, certificando-se de que nvidia-device-plugin.yaml está localizado na mesma pasta.
      Para criar o arquivo, cole o conteúdo do arquivo attach_gpu_drivers.sh baixado na Etapa 1. Execute o seguinte script:
      ./attach_gpu_drivers.sh./attach_gpu_drivers.sh

Solução de problemas

O instalador da infraestrutura não é idempotente. Isso significa que executar o instalador novamente (depois de ter sido executado uma vez) não funcionará. Se esse instalador falhar, será necessário reprovisionar uma nova máquina com discos novos.

As fontes de erro mais comuns são o disco de inicialização ficar cheio durante a instalação ou os discos de dados externos terem sido montados/formatados. Lembre-se de apenas conectar os discos, não formatá-los.

Se a instalação falhar com discos não formatados e um disco de inicialização suficientemente grande, entre em contato com nossa equipe de suporte e inclua em seu e-mail um pacote de suporte. Um pacote de suporte pode ser gerado executando esse comando:

curl https://krew.sh/support-bundle | bash
kubectl support-bundle https://kots.iocurl https://krew.sh/support-bundle | bash
kubectl support-bundle https://kots.io

Alternativamente, se você não tiver acesso à internet, é possível criar o arquivo support-bundle.yaml com o seguinte texto:

apiVersion: troubleshoot.replicated.com/v1beta1
kind: Collector
metadata:
  name: collector-sample
spec:
  collectors:
    - clusterInfo: {}
    - clusterResources: {}
    - exec:
        args:
          - "-U"
          - kotsadm
        collectorName: kotsadm-postgres-db
        command:
          - pg_dump
        containerName: kotsadm-postgres
        name: kots/admin_console
        selector:
          - app=kotsadm-postgres
        timeout: 10s
    - logs:
        collectorName: kotsadm-postgres-db
        name: kots/admin_console
        selector:
          - app=kotsadm-postgres
    - logs:
        collectorName: kotsadm-api
        name: kots/admin_console
        selector:
          - app=kotsadm-api
    - logs:
        collectorName: kotsadm-operator
        name: kots/admin_console
        selector:
          - app=kotsadm-operator
    - logs:
        collectorName: kotsadm
        name: kots/admin_console
        selector:
          - app=kotsadm
    - logs:
        collectorName: kurl-proxy-kotsadm
        name: kots/admin_console
        selector:
          - app=kurl-proxy-kotsadm
    - secret:
        collectorName: kotsadm-replicated-registry
        includeValue: false
        key: .dockerconfigjson
        name: kotsadm-replicated-registry
    - logs:
        collectorName: rook-ceph-agent
        selector:
          - app=rook-ceph-agent
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-mgr
        selector:
          - app=rook-ceph-mgr
        namespace: rook-ceph
        name: kots/rook
- logs:
        collectorName: rook-ceph-mon
        selector:
          - app=rook-ceph-mon
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-operator
        selector:
          - app=rook-ceph-operator
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-osd
        selector:
          - app=rook-ceph-osd
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-osd-prepare
        selector:
          - app=rook-ceph-osd-prepare
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-rgw
        selector:
          - app=rook-ceph-rgw
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-discover
        selector:
          - app=rook-discover
        namespace: rook-ceph
        name: kots/rookapiVersion: troubleshoot.replicated.com/v1beta1
kind: Collector
metadata:
  name: collector-sample
spec:
  collectors:
    - clusterInfo: {}
    - clusterResources: {}
    - exec:
        args:
          - "-U"
          - kotsadm
        collectorName: kotsadm-postgres-db
        command:
          - pg_dump
        containerName: kotsadm-postgres
        name: kots/admin_console
        selector:
          - app=kotsadm-postgres
        timeout: 10s
    - logs:
        collectorName: kotsadm-postgres-db
        name: kots/admin_console
        selector:
          - app=kotsadm-postgres
    - logs:
        collectorName: kotsadm-api
        name: kots/admin_console
        selector:
          - app=kotsadm-api
    - logs:
        collectorName: kotsadm-operator
        name: kots/admin_console
        selector:
          - app=kotsadm-operator
    - logs:
        collectorName: kotsadm
        name: kots/admin_console
        selector:
          - app=kotsadm
    - logs:
        collectorName: kurl-proxy-kotsadm
        name: kots/admin_console
        selector:
          - app=kurl-proxy-kotsadm
    - secret:
        collectorName: kotsadm-replicated-registry
        includeValue: false
        key: .dockerconfigjson
        name: kotsadm-replicated-registry
    - logs:
        collectorName: rook-ceph-agent
        selector:
          - app=rook-ceph-agent
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-mgr
        selector:
          - app=rook-ceph-mgr
        namespace: rook-ceph
        name: kots/rook
- logs:
        collectorName: rook-ceph-mon
        selector:
          - app=rook-ceph-mon
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-operator
        selector:
          - app=rook-ceph-operator
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-osd
        selector:
          - app=rook-ceph-osd
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-osd-prepare
        selector:
          - app=rook-ceph-osd-prepare
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-ceph-rgw
        selector:
          - app=rook-ceph-rgw
        namespace: rook-ceph
        name: kots/rook
    - logs:
        collectorName: rook-discover
        selector:
          - app=rook-discover
        namespace: rook-ceph
        name: kots/rook

E, em seguida, crie o arquivo support-bundle usando o seguinte comando:

kubectl support-bundle support-bundle.yamlkubectl support-bundle support-bundle.yaml

Isso criará um arquivo chamado supportbundle.tar.gz, o qual é possível carregar ao criar um ticket de suporte.

Was this page helpful?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Logotipo branco da Uipath
Confiança e segurança
© 2005-2024 UiPath. All rights reserved.