- Überblick
- Anforderungen
- Installation
- Fragen und Antworten: Bereitstellungsvorlagen
- Herunterladen der Installationspakete
- install-uipath.sh-Parameter
- Aktivieren eines High Availability Add-ons für den Cluster
- Document Understanding-Konfigurationsdatei
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Verwalten des Clusters in ArgoCD
- Einrichten des externen NFS-Servers
- Automatisiert: Aktivieren der Sicherung im Cluster
- Automatisiert: Deaktivieren der Clustersicherung
- Automatisiert, online: Wiederherstellen des Clusters
- Automatisiert, offline: Wiederherstellen des Clusters
- Manuell: Aktivieren der Clustersicherung
- Manuell: Deaktivieren der Clustersicherung
- Manuell, online: Wiederherstellen des Clusters
- Manuell, offline: Wiederherstellen des Clusters
- Zusätzliche Konfiguration
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Überwachung und Warnungen
- Migration und Upgrade
- Migrationsoptionen
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren von eigenständigen Insights
- Schritt 7: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Produktspezifische Konfiguration
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Automatisches Bereinigen von Longhorn-Snapshots
- Deaktivieren von TX-Prüfsummen-Offloading
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Für die Automation Suite muss Backlog_wait_time festgelegt werden 1
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- RKE2 schlägt während der Installation und Aktualisierung fehl
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Patch zur Rückgewinnung von Speicherplatz
- Sicherung aufgrund des Fehlers „TooManySnapshots“ fehlgeschlagen
- Alle Longhorn-Replikate sind fehlerhaft
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Anmeldung nach der Migration nicht mehr möglich
- Kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- Der GSSAPI-Vorgang ist mit Fehler fehlgeschlagen: Es wurde ein ungültiger Statuscode übermittelt (Die Anmeldeinformationen des Clients wurden widerrufen).
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag empfangen
- SSPI-Anbieter: Server nicht in Kerberos-Datenbank gefunden
- Die Anmeldung ist für den Benutzer <ADDOMAIN><aduser> fehlgeschlagen. Grund: Das Konto ist deaktiviert.
- ArgoCD-Anmeldung fehlgeschlagen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- Nach der ersten Installation wechselte ArgoCD in den Status „Progressing“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- UNERWARTETE INKONSISTENZ; fsck MANUELL AUSFÜHREN
- Herabgestufte MongoDB- oder Geschäftsanwendungen nach der Clusterwiederherstellung
- Self-heal-operator und Sf-k8-utils-Repository fehlen
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- RabbitMQ-Pod bleibt in CrashLoopBackOff hängen
- Prometheus im Zustand „CrashloopBackoff“ mit OOM-Fehler (Out-of-Memory)
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Verwenden des Automation Suite-Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
Automation Suite-Installationsanleitung
Bewerten Ihres Speicherbedarfs
Ein Automation Suite-Cluster verwendet die Datenträger, die an seine Serverknoten angefügt sind, als Speicherressourcen, die für alle in Ihrem Cluster aktivierten Produkte verfügbar sind. Jedes Produkt verwendet diese Ressourcen anders.
Um Ihre Speicheranforderungen zu verstehen und entsprechend zu planen, lesen Sie die folgende Terminologie und Richtlinien.
-
Datenträgergröße des Serverknotens – Die Größe aller einzelnen Datenträger, die mit jedem Serverknoten verbunden sind.
- Alle Server müssen über die gleiche Anzahl von Datenträgern verfügen.
- Datenträger auf jedem Server können unterschiedliche Größen haben, solange die Summe aller Datenträgergrößen auf allen Servern identisch ist.
- Gesamte Datenträgergröße des Clusters – Datenträgergröße des Serverknotens multipliziert mit der Anzahl der Serverknoten.
-
Verfügbarer Speicher derAnwendung – Die Menge des verfügbaren Speichers für Anwendungen.
- Der verfügbare Speicher der Anwendung ist geringer als die Gesamtgröße der Clusterfestplatte, da Fehlerresistenz und Hochverfügbarkeit im Automation Suite-Cluster implementiert sind.
In der folgenden Tabelle werden die HA-fähigen Hardwareanforderungen für mehrere Knoten für die Profile Basic und Complete im Kontext der zuvor eingeführten Begriffe beschrieben.
Voreingestellte Hardwarekonfiguration |
Anzahl der Serverknoten |
Festplattengröße des Serverknotens |
Gesamtgröße der Clusterfestplatte |
Verfügbarer Speicher der Anwendung (online) |
Verfügbarer Speicher der Anwendung (offline) |
---|---|---|---|---|---|
3 |
512 GiB |
1,5 TiB |
41 GiB |
37 GiB | |
3 |
2 TiB |
6 TiB |
291 GiB |
286 GiB |
Um den verfügbaren Speicher von 291 GiB zu nutzen, müssen Sie die Größe des PVC-Werts auf 291 GiB anstelle des vorkonfigurierten Wertes von 100 GiB ändern. Andernfalls können Ihre Anwendungen höchstens 100 GiB nutzen.
Anweisungen finden Sie unter Ändern der PVC-Größe.
Wenn Sie Produkte im Cluster aktivieren und verwenden, verbrauchen sie einen Teil des Speichers aus dem verfügbaren Speicher der Anwendung. Produkte haben in der Regel einen kleinen Aktivierungs-Footprint sowie einen nutzungsabhängigen Footprint, der je nach Anwendungsfall, Nutzungsumfang und Projekt variiert. Der Speicherverbrauch wird gleichmäßig auf alle Speicherressourcen (Datenträger) verteilt, und Sie können die Speicherauslastung mithilfe des Automation Suite-Überwachungsstapels überwachen.
Der Automation Suite-Cluster verwendet ein internes Kubernetes-Konzept namens Persistent Volumes als interne Abstraktion, die Datenträger über alle Knoten im Cluster hinweg darstellt.
Um Instabilitäten zu vermeiden, wird empfohlen, Überwachungen und Warnungen einzurichten, um ständig zu überprüfen, ob der freie Speicherplatz auf den Persistenten Volumes unter den für die Anwendung verfügbaren Speicherwert fällt. Weitere Informationen finden Sie unter Überwachen persistenter Volumes.
Wenn eine Warnung ausgelöst wird, können Sie dies abschwächen, indem Sie die Speicherkapazität Ihres Clusters erhöhen, wie im folgenden Abschnitt beschrieben.
Wenn Ihre bewerteten Anforderungen nicht die empfohlenen Hardwareanforderungen erfüllen, können Sie mit einer oder beiden der folgenden Methoden mehr Speicherkapazität hinzufügen:
- Fügen Sie weitere Serverknoten mit Datenträgern hinzu. Anweisungen finden Sie unter Hinzufügen eines neuen Knotens zum Cluster.
-
Fügen Sie den vorhandenen Knoten weitere Datenträger hinzu. Anweisungen finden Sie unter Erweitern des Datenträgers in einer Auswertungsumgebung mit einem einzelnen Knoten und Erweitern des Datenträgers in einer HA-fähigen Produktionsumgebung mit mehreren Knoten.
Wichtig: Für jeweils 60 GiB produktspezifischen Speicherplatz benötigt Ihr Automation Suite-Cluster einen zusätzlichen Speicherplatz von 1 TiB, der gleichmäßig auf Ihre Serverknoten verteilt wird und dem gesamten auf Ihrem Cluster verfügbaren Speicherplatz hinzugefügt wird.
Sie können Ihren Speicherverbrauch mithilfe der produktspezifischen Metrik in den folgenden Tabellen schätzen. In diesen Tabellen wird beschrieben, wie viele Inhalte Sie sofort in Ihrem Cluster platzieren können. Als Referenz enthalten sie den Speicherbedarf eines typischen Nutzungsszenarios jedes Produkts.
Grundlegende Produktauswahl
Produkt |
Speichertreibende Metrik |
Speicher pro Metrik |
Typischer Anwendungsfall |
---|---|---|---|
Orchestrator |
|
|
In der Regel ist ein Paket 5 MiB und Buckets, die vorhanden sind, sind weniger als 1 MiB. In einem ausgereiften Unternehmen werden 5 GiB an Paketen und 6 GiB an Buckets bereitgestellt. |
Action Center |
|
|
In der Regel benötigt ein Dokument 0,15 MiB und die auszufüllenden Formulare weitere 0,15 KiB. In einem ausgereiften Unternehmen kann dies insgesamt bis zu 4 GiB betragen. |
Test Manager |
|
|
In der Regel ergeben alle Dateien und Anhänge zusammen etwa 5 GiB. |
Insights |
|
|
Für die Aktivierung sind 2 GiB erforderlich, wobei der Speicherplatzbedarf mit der Anzahl wächst. Eine gut etablierte Bereitstellung auf Unternehmensebene erfordert weitere GiB für alle Dashboards. |
Automation Hub |
Keine Angabe |
Keine Angabe |
2 GiB fester Speicherort |
Automation Ops |
Keine Angabe |
Keine Angabe |
Kein Speicherbedarf |
Vollständige Produktauswahl
Produkt |
Speichertreibende Metrik |
Speicher pro Metrik |
Typischer Anwendungsfall |
---|---|---|---|
Apps |
|
|
In der Regel benötigt die Datenbank etwa 5 GiB und eine typische komplexe App verbraucht etwa 15 MiB. |
AI Center |
|
|
Eine typische und etablierte Installation verbraucht 8 GiB für 5 Pakete und weitere 1 GiB für die Datasets. Eine Pipeline kann weitere 50 GiB verbrauchen, aber nur, wenn sie aktiv ausgeführt wird. |
Document Understanding |
|
|
In einer ausgereiften Bereitstellung gehen 12 GiB an das ML-Modell, 17 GiB an die OCR und 50 GiB an alle gespeicherten Dokumente. |
Task Mining |
|
|
In der Regel sollten etwa 200 GiB an Aktivitätsprotokolldaten analysiert werden, um sinnvolle Automatisierungen vorzuschlagen. Für sich stark wiederholende Aufgaben werden jedoch möglicherweise viel weniger Daten benötigt. |