- Notes de publication
- Prérequis
- Installation
- Démarrage
- Projets
- Jeux de données
- Paquets ML
- Pipelines
- Compétences ML
- Journaux ML
- Document Understanding dans AI Fabric
- Guide de dépannage de base
AI Center
Nœud unique AI Fabric
À niveau élevé, l'installation d'AI Fabric doit exécuter ces étapes :
Étape | Temps d'activité | Temps d’attente |
---|---|---|
1. Provisionner une machine AIF | < 5 minute | -- |
2. Configurer la base de données | < 1 minute | -- |
3. Configurer Orchestrator | < 5 minute | -- |
4. Exécuter le programme d'installation de l'infrastructure AI Fabric | < 1 minute | ~20 minutes |
5. Exécuter le programme d'installation de l'application AI Fabric | < 5 minute | ~20 minutes |
6. Vérifiez l'installation | ~5 minutes | -- |
- La machine Linux sur laquelle AI Fabric sera installé doit pouvoir se connecter à la machine Orchestrator (domaine et port).
- La machine Linux sur laquelle AI Fabric sera installé doit pouvoir se connecter au serveur SQL (domaine/IP et port).
- Les robots/Studio qui utiliseront AI Fabric doivent être connectés à la machine Linux AI Fabric.
Pour les composants de Document Understanding (Data Manager et moteurs OCR) :
- Data Manager a besoin d'accéder à AI Fabric on prem :<numéro_port> ou aux points de terminaison SaaS publics tels que https://invoices.uipath.com au cas où le pré-labellisation est nécessaire (le pré-labellisation est facultatif).
- Data Manager doit accéder au moteur OCR :<numéro_port>. Le moteur OCR peut être UiPath Document OCR sur site, Omnipage OCR sur site, Google Cloud Vision OCR, Microsoft Read Azure, Microsoft Read sur site.
- Les robots doivent accéder à OCR :<numéro_port>. Mêmes options OCR que ci-dessus, à l'exception d'Omnipage, qui est disponible dans les Robots directement sous forme de pack d'activités.
L'installation en ligne d'AI Fabric désigne une installation locale qui télécharge l'application AI Fabric et tous les artefacts associés (par exemple, les modèles d'apprentissage automatique) sur Internet.
Le programme d'installation d'AI Fabric télécharge des images de conteneur et des modèles d'apprentissage automatique pour remplir votre instance AI Fabric avec un apprentissage automatique prêt à l'emploi (cela inclut les modèles de Document Understanding). C'est pourquoi, au moment de l'installation, la machine Linux doit avoir accès à ces points de terminaison via https (port 443) :
Nom d'hôte | Objectif |
---|---|
registry.replicated.com | Les images Docker en amont sont extraites via registry.replicated.com. Ce domaine appartient à Replicated, Inc, dont le siège est à Los Angeles, en Californie. |
proxy.replicated.com | Les images Docker en amont sont extraites via proxy.replicated.com. Le client docker sur site utilise un ID de licence pour s'authentifier sur proxy.replicated.com. Ce domaine appartient à Replicated, Inc, dont le siège est à Los Angeles, en Californie. |
replicated.app | L'application en amont YAML et les métadonnées sont extraites de replicated.app. La version en cours d'exécution de l'application (le cas échéant) sera envoyée en plus d'un ID de licence. Les ID d'application sont envoyés à replicated.app pour s'authentifier et recevoir ces fichiers YAML. Ce domaine appartient à Replicated, Inc, dont le siège est à Los Angeles, en Californie |
get.replicated.com | Synchronisez les artefacts à partir de la réplication. Ce domaine appartient à Replicated, Inc, dont le siège est à Los Angeles, en Californie. |
api.replicated.com | Demandes d'API au programme d'installation de l'infrastructure. Ce domaine appartient à Replicated, Inc, dont le siège est à Los Angeles, en Californie. |
k8s.kurl.sh | Les artefacts et les scripts d'installation du cluster Kubernetes sont fournis à partir de kurl.sh. Un identifiant d'application est envoyé dans un chemin d'URL ; les scripts bash et les exécutables binaires sont fournis à partir de kurl.sh. Ce domaine appartient à Replicated, Inc, dont le siège est à Los Angeles, en Californie. |
kurl-sh.s3.amazonaws.com | Les packages tar.gz sont téléchargés depuis Amazon S3 lors des installations de cluster intégrées. Les plages d'adresses IP à ajouter à la liste blanche pour y accéder peuvent être extraites dynamiquement à partir de la documentation AWS IP Address Ranges1. |
*.docker.io | Les images Docker en amont sont extraites de docker.io. Il est possible que plusieurs sous-domaines tels que register-1.docker.io soient présents, donc le modèle de droite doit être autorisé. |
*.docker.com | Les autres images Docker en amont sont extraites de docker.io. Il est possible que plusieurs sous-domaines soient présents, donc le modèle de droite doit être autorisé. |
raw.githubusercontent.com | Pour que les scripts créent un déploiement persistant de revendication de volume. |
quay.io | Fournit des images de conteneur. |
registry.k8s.io | Les images en amont sont extraites de registry.k8s.io. |
Ces points de terminaison doivent uniquement autoriser les connexions pour l'utilisation d'un GPU avec AI Fabric. Toutes les installations GPU sont effectuées via notre script d'installation GPU dans 4. Exécutez AI Fabric Infrastructure Installer.
Nom d'hôte | Objectif |
---|---|
developer.download.nvidia.com | Téléchargez les pilotes GPU de NVIDIA. |
nvidia.github.io | Télécharger https://nvidia.github.io/nvidia-docker/gpgkey et nvidia-docker.list |
raw.githubusercontent.com | Le script téléchargera en interne un fichier YAML à partir de github.com/NVIDIA/k8s-device-plugin |
Au moment de l'exécution, un AI Fabric installé via le programme d'installation en ligne se connecte à ces points de terminaison :
Nom d'hôte | Objectif |
---|---|
du-metering.uipath.com | Pour comptabiliser et valider les licences Document Understanding. |
registry.replicated.com | Les images Docker en amont sont extraites de registry.replicated.com.via un registre docker privé. Ce domaine appartient à Replicated, Inc, dont le siège est à Los Angeles, en Californie. |
raw.githubusercontent.com | Pour que les scripts mettent à jour quotidiennement les modèles OOB. |
github.com | Pour que les scripts mettent à jour quotidiennement les modèles OOB. |
personnalisé (facultatif) | Cela dépend de la façon dont le type d'utilisateur utilisant AI Fabric a choisi de créer ses paquets ml. AI Fabric crée dynamiquement une image de conteneur. Les dépendances de cette image peuvent être regroupées dans le paquet ML lui-même (auquel cas aucun appel réseau sortant supplémentaire n'est effectué) ou spécifiées dans un fichier requirements.txt. Ce fichier peut spécifier l'emplacement à partir duquel les dépendances seront téléchargées. |
L'installation physiquement éloignée d'AI Fabric désigne une installation sur site déclenchée après un téléchargement unique à partir d'un domaine uipath.
Aucune connexion Internet n'est requise au moment de l'installation (remarque : si le nœud dispose d'un GPU, cela signifie que la version 450.51.06 du pilote NVIDA et nvidia-container-runtime ont été installés comme indiqué dans les conditions préalables à une installation physiquement éloignée).
Au moment du runtime de l'application, la nécessité ou non de la connectivité dépend entièrement de l'utilisateur d'AI Fabric. Un utilisateur d'AI Fabric crée un paquet ml qui peut être déployé et entraîné sur AI Fabric. AI Fabric crée dynamiquement une image de conteneur à partir de ce paquet ML. Les dépendances de cette image peuvent être regroupées dans le paquet ML lui-même (auquel cas aucun appel réseau sortant supplémentaire n'est effectué) ou spécifiées dans un fichier requirements.txt. Ce fichier peut spécifier l'emplacement à partir duquel les dépendances seront téléchargées, tel qu'un référentiel de dépendances de package python interne et sécurisé.
- Configuration du réseau
- Exigences de connectivité - Installation en ligne
- Points de terminaison auxquels le programme d'installation se connecte
- Points de terminaison auxquels les scripts d'installation du GPU se connectent
- Points de terminaison connectés au moment de l'exécution
- Exigences de connectivité - Installation physiquement isolée