AI Center
2022.10
False
Bannerhintergrundbild
AI Center – Benutzerhandbuch
Letzte Aktualisierung 19. April 2024

Offlineinstallation von ML-Paketen

Wenn Sie eine Offline-Installation von AI Center™ verwenden, befolgen Sie die Anweisungen auf dieser Seite, um ML-Pakete zu installieren.

Liste der ML-Pakete

Tabelle 1. Liste der ML-Pakete und Metadaten
KategorieModellnameVersion in AI Center 2022.10UiPath-VersionMetadataOfflinepaket benötigt
UiPath SprachanalyseBenutzerdefinierte benannte Entität922.6hierNein
Mehrsprachige Textklassifizierung422.6hierNein
Leichte Textklassifizierung422.6hierNein
Open-Source-PaketeTextzusammenfassung1Keine AngabehierNein
TPOTAutoMLClassification1Keine AngabehierNein
Stimmungsanalyse1Keine AngabehierNein
Beantworten von Fragen1Keine AngabehierNein
Englischsprachige Textklassifizierung2Keine AngabehierNein
Task MiningTM-Analysemodell11.0.21hierNein
Hinweis:

Um ML-Pakete verwenden zu können, müssen Sie zuerst die Pakete in UiPath AI Center™ hochladen. Führen Sie dazu die Schritte von Modell im AI Center hochladen aus. Einige Modelle, wie Document Understanding, müssen installiert werden. Wenn Sie diese Modelle verwenden wollen, müssen Sie sie zuerst mit dem Verfahren unter Installieren des Offlinepakets installieren.

Wenn Sie ein Python 3.6-Modell verwenden, stellen Sie sicher, dass Sie die richtigen Bundles installiert haben.

Weitere Informationen zur Offlineinstallation von Document Understanding ML-Paketen finden Sie auf dieser Seite.

Modell in AI Center hochladen

Führen Sie die folgenden Schritte aus, um sofort einsatzbereite Pakete in einer Offlineumgebung zu installieren.

  1. Wechseln Sie zu Sofort einsetzbare Pakete auf der Mandantenebene. Um ein neues ML-Paket hinzuzufügen, klicken Sie auf die Schaltfläche Neu erstellen.


    Hinweis:

    Um auf die Seite zugreifen zu können, stellen Sie sicher, dass Sie über Leseberechtigungen verfügen. Die Schaltfläche Neu erstellen ist nur sichtbar, wenn Sie auch über Berechtigungen zum Erstellen verfügen.

  2. Gehen Sie zur Seite ML-Protokolle. Die ML-Pakete, die vom öffentlichen Mandanten hochgeladen und validiert wurden, werden hier angezeigt. Klicken Sie auf Neu erstellen, um ein neues Modell hochzuladen.
  3. Laden Sie die Dateien des ML-Pakets zip und json separat hoch.


  4. Klicken Sie auf Einreichen.
Hinweis:

Warten Sie nach dem Hochladen des Modells einige Minuten, bis die Validierung erfolgreich ist. Nach der erfolgreichen Validierung aktualisieren Sie das Raster manuell. Sie können nun auf der Seite Sofort einsetzbare Pakete zu jedem Projekt wechseln und das neu hochgeladene ML-Paket finden.

Sobald das ML-Paket hochgeladen wurde, wird die Seite ML-Protokolle angezeigt.

Erforderliches Paket installieren

Stellen Sie vor der Installation des Pakets sicher, dass es nicht bereits vorhanden ist. Wenn das nicht der Fall ist oder Sie sich nicht sicher sind, können Sie mit dem Verfahren fortfahren. Andernfalls müssen Sie einfach die Dokumentation zum Uploadmodell befolgen.

  1. Laden Sie das Paket für Windows-Maschinen direkt über den Paketlink herunter. Laden Sie das Paket für Linux-Maschinen mit Internetzugang herunter, indem Sie den folgenden Befehl ausführen:
    wget -O ~/<bundle-name.tar.gz> 'bundle-link'wget -O ~/<bundle-name.tar.gz> 'bundle-link'
  2. Kopieren Sie das folgende Paket in den /uipath/tmp-Ordner auf der Hauptmaschine des Clusters (auf dem die Installation durchgeführt wurde):
    scp ~/<bundle-name.tar.gz> <username>@<node dns>:/uipath/tmp/scp ~/<bundle-name.tar.gz> <username>@<node dns>:/uipath/tmp/
  3. Stellen Sie eine Verbindung mit dieser Hauptmaschine her und laden Sie das Paket:
    ./configureUiPathAS.sh registry upload --optional-offline-bundle "/uipath/tmp/du.tar.gz" --offline-tmp-folder "/uipath/tmp"./configureUiPathAS.sh registry upload --optional-offline-bundle "/uipath/tmp/du.tar.gz" --offline-tmp-folder "/uipath/tmp"

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
UiPath Logo weiß
Vertrauen und Sicherheit
© 2005-2024 UiPath. All rights reserved.