- Notas de Versão
- Requisitos
- Instalação
- Sobre a Instalação
- 1. Provisione uma máquina
- 2. Configure o banco de dados
- 3. Configure o Orchestrator
- 4. Execute o instalador da infraestrutura do AI Fabric
- 5. Execute o instalador do aplicativo do AI Fabric
- 6. Verifique a instalação
- Software de terceiros
- Suporte
- Atualize o AI Fabric
- Atualização do certificado do AI Fabric
- Introdução
- Projetos
- Conjuntos de dados
- Pacotes de ML
- Pipelines
- Habilidades de ML
- Logs de ML
- Document Understanding no AI Fabric
- Guia básico de solução de problemas
AI Center
4. Execute o instalador da infraestrutura do AI Fabric
Execute o instalador da infraestrutura do AI Fabric. A conclusão desse instalador produzirá o console de administração do Kots, onde você pode gerenciar atualizações de aplicativos, configuração de aplicativos, uso de recursos (pressão da CPU/memória) e baixar pacotes de suporte para solucionar quaisquer problemas.
A primeira etapa é baixar o arquivo zip do instalador aqui e movê-lo para o servidor do AI Fabric. Alternativamente, é possível baixá-lo diretamente da máquina usando o seguinte comando
O script baixará alguns arquivos localmente como parte do processo de instalação; certifique-se de que você tenha 4 GB disponíveis no diretório no qual você executará o script.
Por padrão, as VMs do Azure RHEL têm apenas 1 GB disponíveis no diretório home, que é o diretório padrão.
wget https://download.uipath.com/aifabric/online-installer/v2020.10.5/aifabric-installer-v20.10.5.tar.gz
wget https://download.uipath.com/aifabric/online-installer/v2020.10.5/aifabric-installer-v20.10.5.tar.gz
Em seguida, descompacte o arquivo e entre na pasta principal usando o seguinte comando:
tar -xvf aifabric-installer-v20.10.5.tar.gz
cd ./aifabric-installer-v20.10.5
tar -xvf aifabric-installer-v20.10.5.tar.gz
cd ./aifabric-installer-v20.10.5
Em seguida, é possível executar o instalador do AI Fabric digitando:
./setup.sh
./setup.sh
A primeira etapa é aceitar o contrato de licença pressionando Y. Então, o script perguntará qual tipo de plataforma você deseja instalar; entre com OneBox e pressione Enter como na imagem abaixo:
Em seguida, será perguntado se há uma GPU disponível para sua configuração e Y ou N, dependendo do seu hardware. Certifique-se de que os drivers já estejam instalados.
Dependendo do seu sistema, pode ser solicitado que você pressione Y algumas vezes para a instalação ser concluída.
Essa etapa levará entre 15 e 25 minutos para ser concluída. Após a conclusão, você verá na saída do terminal a mensagem Instalação concluída.
Na máquina local com acesso a um navegador (por exemplo, um Windows Server), baixe a instalação do pacote usando o link fornecido pelo gerente de sua conta.
tar -zxvf aifabric-installer-v2020.10.5.tar.gz
a partir de uma máquina que suporte o tar.
Isso criará duas pastas
aif_infra_20.10.5.tar.gz
contendo componentes da infraestrutura (cerca de 3,6 GB)ai-fabric-v2020.10.5.airgap
, contendo componentes do aplicativo (cerca de 8,7 GB). Ele será carregado na UI na etapa 5. Execute o instalador do aplicativo do AI Fabric.
aif_infra_20.10.5.tar.gz
na máquina do AI Fabric isolada.
Em seguida, execute o seguinte comando para iniciar o instalador da infraestrutura:
tar -zxvf aif_infra_20.10.5.tar.gz
cd aif_infra_20.10.5
sudo ./setup.sh
tar -zxvf aif_infra_20.10.5.tar.gz
cd aif_infra_20.10.5
sudo ./setup.sh
Em ambos os casos, a instalação bem-sucedida gerará o endereço e a senha do KotsAdmin Ui
...
Install Successful:
configmap/kurl-config created
Installation
Complete ✔
Kotsadm: http://13.59.108.17:8800
Login with password (will not be shown again): NNqKCY82S
The UIs of Prometheus, Grafana and Alertmanager have been exposed on NodePorts 30900,
30902 and 30903 respectively.
To access Grafana use the generated user:password of admin:msDX5VZ9m .
To access the cluster with kubectl, reload your shell:
bash -l
...
...
Install Successful:
configmap/kurl-config created
Installation
Complete ✔
Kotsadm: http://13.59.108.17:8800
Login with password (will not be shown again): NNqKCY82S
The UIs of Prometheus, Grafana and Alertmanager have been exposed on NodePorts 30900,
30902 and 30903 respectively.
To access Grafana use the generated user:password of admin:msDX5VZ9m .
To access the cluster with kubectl, reload your shell:
bash -l
...
<machine-ip>:8800
. Em alguns casos, pode ser exibindo o IP interno em vez do IP público; certifique-se de que você esteja usando o IP público se o estiver acessando de fora.
bash -l
kubectl kots reset-password -n default
bash -l
kubectl kots reset-password -n default
- Verifique se os drivers da GPU estão corretamente instalados executando o seguinte comando:
nvidia-smi
nvidia-smiSe os drivers da GPU estiverem instalados corretamente, as informações de sua GPU devem ser exibidas. Se ocorrer um erro, isso significa que a GPU não está acessível ou que os drivers não estão instalados corretamente. Esse problema deve ser corrigido antes de prosseguir.
- Verifique se o NVIDIA Runtime Container está instalado corretamente executando o seguinte comando:
/usr/bin/nvidia-container-runtime
/usr/bin/nvidia-container-runtime
- Baixe os dois scripts disponíveis para adicionar a GPU a partir do seguinte link: scripts da GPU.
-
Execute um script para adicionar a GPU ao cluster, para que os Pipelines e as Habilidades de ML possam usá-lo. Dependendo da sua instalação, escolha uma das seguintes opções:
- No caso de instalação online, execute o seguinte script:
<h1>navigate to where you untar installer (or redo it if you have removed it) cd ./aicenter-installer-v21.4.0/infra/common/scripts ./attach_gpu_drivers.sh</h1>
<h1>navigate to where you untar installer (or redo it if you have removed it) cd ./aicenter-installer-v21.4.0/infra/common/scripts ./attach_gpu_drivers.sh</h1> -
No caso isolado, primeiro você precisa criar o arquivo no diretório
aif_infra
, certificando-se de quenvidia-device-plugin.yaml
está localizado na mesma pasta.Para criar o arquivo, cole o conteúdo do arquivoattach_gpu_drivers.sh
baixado na Etapa 1. Execute o seguinte script:./attach_gpu_drivers.sh
./attach_gpu_drivers.sh
- No caso de instalação online, execute o seguinte script:
O instalador da infraestrutura não é idempotente. Isso significa que executar o instalador novamente (depois de ter sido executado uma vez) não funcionará. Se esse instalador falhar, será necessário reprovisionar uma nova máquina com discos novos.
As fontes de erro mais comuns são o disco de inicialização ficar cheio durante a instalação ou os discos de dados externos terem sido montados/formatados. Lembre-se de apenas conectar os discos, não formatá-los.
Se a instalação falhar com discos não formatados e um disco de inicialização suficientemente grande, entre em contato com nossa equipe de suporte e inclua em seu e-mail um pacote de suporte. Um pacote de suporte pode ser gerado executando esse comando:
curl https://krew.sh/support-bundle | bash
kubectl support-bundle https://kots.io
curl https://krew.sh/support-bundle | bash
kubectl support-bundle https://kots.io
Alternativamente, se você não tiver acesso à internet, é possível criar o arquivo support-bundle.yaml com o seguinte texto:
apiVersion: troubleshoot.replicated.com/v1beta1
kind: Collector
metadata:
name: collector-sample
spec:
collectors:
- clusterInfo: {}
- clusterResources: {}
- exec:
args:
- "-U"
- kotsadm
collectorName: kotsadm-postgres-db
command:
- pg_dump
containerName: kotsadm-postgres
name: kots/admin_console
selector:
- app=kotsadm-postgres
timeout: 10s
- logs:
collectorName: kotsadm-postgres-db
name: kots/admin_console
selector:
- app=kotsadm-postgres
- logs:
collectorName: kotsadm-api
name: kots/admin_console
selector:
- app=kotsadm-api
- logs:
collectorName: kotsadm-operator
name: kots/admin_console
selector:
- app=kotsadm-operator
- logs:
collectorName: kotsadm
name: kots/admin_console
selector:
- app=kotsadm
- logs:
collectorName: kurl-proxy-kotsadm
name: kots/admin_console
selector:
- app=kurl-proxy-kotsadm
- secret:
collectorName: kotsadm-replicated-registry
includeValue: false
key: .dockerconfigjson
name: kotsadm-replicated-registry
- logs:
collectorName: rook-ceph-agent
selector:
- app=rook-ceph-agent
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-mgr
selector:
- app=rook-ceph-mgr
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-mon
selector:
- app=rook-ceph-mon
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-operator
selector:
- app=rook-ceph-operator
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-osd
selector:
- app=rook-ceph-osd
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-osd-prepare
selector:
- app=rook-ceph-osd-prepare
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-rgw
selector:
- app=rook-ceph-rgw
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-discover
selector:
- app=rook-discover
namespace: rook-ceph
name: kots/rook
apiVersion: troubleshoot.replicated.com/v1beta1
kind: Collector
metadata:
name: collector-sample
spec:
collectors:
- clusterInfo: {}
- clusterResources: {}
- exec:
args:
- "-U"
- kotsadm
collectorName: kotsadm-postgres-db
command:
- pg_dump
containerName: kotsadm-postgres
name: kots/admin_console
selector:
- app=kotsadm-postgres
timeout: 10s
- logs:
collectorName: kotsadm-postgres-db
name: kots/admin_console
selector:
- app=kotsadm-postgres
- logs:
collectorName: kotsadm-api
name: kots/admin_console
selector:
- app=kotsadm-api
- logs:
collectorName: kotsadm-operator
name: kots/admin_console
selector:
- app=kotsadm-operator
- logs:
collectorName: kotsadm
name: kots/admin_console
selector:
- app=kotsadm
- logs:
collectorName: kurl-proxy-kotsadm
name: kots/admin_console
selector:
- app=kurl-proxy-kotsadm
- secret:
collectorName: kotsadm-replicated-registry
includeValue: false
key: .dockerconfigjson
name: kotsadm-replicated-registry
- logs:
collectorName: rook-ceph-agent
selector:
- app=rook-ceph-agent
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-mgr
selector:
- app=rook-ceph-mgr
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-mon
selector:
- app=rook-ceph-mon
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-operator
selector:
- app=rook-ceph-operator
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-osd
selector:
- app=rook-ceph-osd
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-osd-prepare
selector:
- app=rook-ceph-osd-prepare
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-ceph-rgw
selector:
- app=rook-ceph-rgw
namespace: rook-ceph
name: kots/rook
- logs:
collectorName: rook-discover
selector:
- app=rook-discover
namespace: rook-ceph
name: kots/rook
E, em seguida, crie o arquivo support-bundle usando o seguinte comando:
kubectl support-bundle support-bundle.yaml
kubectl support-bundle support-bundle.yaml
Isso criará um arquivo chamado supportbundle.tar.gz, o qual é possível carregar ao criar um ticket de suporte.