- Überblick
- Anforderungen
- Empfohlen: Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 1: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 2: Konfigurieren des externen Objektspeichers
- Schritt 3: Konfigurieren eines High Availability Add-ons
- Schritt 4: Konfigurieren von Microsoft SQL Server
- Schritt 5: Konfigurieren des Lastausgleichs
- Schritt 6: Konfigurieren des DNS
- Schritt 7: Konfigurieren der Datenträger
- Schritt 8: Konfigurieren der Einstellungen auf Kernel- und Betriebssystemebene
- Schritt 9: Konfigurieren der Knotenports
- Schritt 10: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Schritt 13: Generieren von cluster_config.json
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- install-uipath.sh-Parameter
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Umleitung des Datenverkehrs für die nicht unterstützten Dienste auf den primären Cluster
- Überwachung und Warnungen
- Migration und Upgrade
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren des eigenständigen Orchestrators
- Schritt 7: Migrieren von eigenständigen Insights
- Schritt 8: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Migrieren von der Automation Suite unter Linux zur Automation Suite unter EKS/AKS
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Produktspezifische Konfiguration
- Verwenden des Orchestrator-Konfiguratortools
- Konfigurieren von Orchestrator-Parametern
- Orchestrator-appSettings
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- Upgrade von Automation Suite 2022.10.10 und 2022.4.11 auf 2023.10.2
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- How to forward application logs to Splunk
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- SQL-Verbindungszeichenfolge der Testautomatisierung wird ignoriert
- Data loss when reinstalling or upgrading Insights following Automation Suite upgrade
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Datenträger kann nicht verbunden werden und verbleibt im Status der „Attach/Detach“-Schleife
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Fehlerhafte Insights-Komponente verursacht Fehlschlag der Migration
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Docker-Registrierungsmigration bleibt in PVC-Löschphase hängen
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10 oder höher
- Upgrade schlägt in Offline-Umgebungen fehl
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Upgrade/Neuinstallationsfehler des Longhorn REST API-Endpunkts
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- After Disaster Recovery Dapr is not working properly for Process Mining
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Task Mining troubleshooting
- Ausführen des Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
Automation Suite unter Linux – Installationsanleitung
Bewerten Ihres Speicherbedarfs
Ein Automation Suite-Cluster verwendet die Objectstore-Festplatten, die an seine Serverknoten angefügt sind, als Speicherressourcen, die für alle in Ihrem Cluster aktivierten Produkte verfügbar sind. Jedes Produkt verwendet diese Ressourcen anders.
Um Ihre Speicheranforderungen zu verstehen und entsprechend zu planen, lesen Sie die folgende Terminologie und Richtlinien.
-
Datenträgergröße des Serverknotens – Die Größe aller einzelnen Datenträger, die mit jedem Serverknoten verbunden sind.
- Datenträger auf jedem Server können unterschiedliche Größen haben, solange die Summe aller Datenträgergrößen auf allen Servern identisch ist.
- Gesamte Datenträgergröße des Clusters – Datenträgergröße des Serverknotens multipliziert mit der Anzahl der Serverknoten.
-
Verfügbarer Speicher derAnwendung – Die Menge des verfügbaren Speichers für Anwendungen.
- Der verfügbare Speicher der Anwendung ist niedriger als der gesamte zugeordnete Speicher. Dadurch soll sichergestellt werden, dass wir eine höhere Ausfallsicherheit und hohe Verfügbarkeit haben.
In der folgenden Tabelle werden die HA-fähigen Hardwareanforderungen für mehrere Knoten für die vollständige Produktauswahl im Kontext der zuvor eingeführten Begriffe beschrieben.
Anzahl der Serverknoten |
Festplattengröße des Serverknotens |
Gesamtgröße der Clusterfestplatte |
Verfügbarer Speicher der Anwendung |
---|---|---|---|
3 |
512 GiB |
1,5 TiB |
512 GiB |
Wenn Sie Produkte im Cluster aktivieren und verwenden, verbrauchen sie einen Teil des Speichers aus dem verfügbaren Speicher der Anwendung. Produkte haben in der Regel einen kleinen Aktivierungs-Footprint sowie einen nutzungsabhängigen Footprint, der je nach Anwendungsfall, Nutzungsumfang und Projekt variiert. Der Speicherverbrauch wird gleichmäßig auf alle Speicherressourcen (Datenträger) verteilt, und Sie können die Speicherauslastung mithilfe des Automation Suite-Überwachungsstapels überwachen.
Sie erhalten eine Warnung mit einer Warnung, wenn der Speicherverbrauch 75 % überschreitet. Sie erhalten eine weitere kritische Warnung, wenn der Speicherverbrauch 85 % überschreitet; In diesem Fall ist der Speicher schreibgeschützt.
Wenn Ihre bewerteten Anforderungen nicht die empfohlenen Hardwareanforderungen erfüllen, können Sie mit einer oder beiden der folgenden Methoden mehr Speicherkapazität hinzufügen:
- Sie müssen auf allen Serverknoten derselben Größe einen neuen Datenträger hinzufügen.
- Informationen zum Konfigurieren des Datenträgers finden Sie in unseren Dokumenten.
Sie können Ihren Speicherverbrauch mithilfe der produktspezifischen Metrik in den folgenden Tabellen schätzen. In diesen Tabellen wird beschrieben, wie viele Inhalte Sie sofort in Ihrem Cluster platzieren können. Als Referenz enthalten sie den Speicherbedarf eines typischen Nutzungsszenarios jedes Produkts.
Produkt |
Speichertreibende Metrik |
Speicher pro Metrik |
Typischer Anwendungsfall |
---|---|---|---|
Gemeinsame Suite-Funktionen |
|
Keine Angabe |
In der Regel haben Anwendungsprotokolle für 7 Tage etwa 25 GiB. |
Orchestrator |
|
|
In der Regel ist ein Paket 5 MiB und Buckets, die vorhanden sind, sind weniger als 1 MiB. In einem ausgereiften Unternehmen werden 5 GiB an Paketen und 6 GiB an Buckets bereitgestellt. |
Action Center |
|
|
In der Regel benötigt ein Dokument 0,15 MiB und die auszufüllenden Formulare weitere 0,15 KiB. In einem ausgereiften Unternehmen kann dies insgesamt bis zu 4 GiB betragen. |
Test Manager |
|
|
In der Regel ergeben alle Dateien und Anhänge zusammen etwa 5 GiB. |
Insights |
|
|
Für die Aktivierung sind 2 GiB erforderlich, wobei der Speicherplatzbedarf mit der Anzahl wächst. Eine gut etablierte Bereitstellung auf Unternehmensebene erfordert weitere GiB für alle Dashboards. |
Automation Hub |
Keine Angabe |
Keine Angabe |
2 GiB fester Speicherort |
Automation Ops |
Keine Angabe |
Keine Angabe |
Kein Speicherbedarf |
Apps |
|
|
In der Regel benötigt die Datenbank etwa 5 GiB und eine typische komplexe App verbraucht etwa 15 MiB. |
AI Center |
|
|
Eine typische und etablierte Installation verbraucht 8 GiB für 5 Pakete und weitere 1 GiB für die Datasets. Eine Pipeline kann weitere 50 GiB verbrauchen, aber nur, wenn sie aktiv ausgeführt wird. |
Document Understanding |
|
|
In einer ausgereiften Bereitstellung gehen 12 GiB an das ML-Modell, 17 GiB an die OCR und 50 GiB an alle gespeicherten Dokumente. |
Task Mining |
|
|
In der Regel sollten etwa 200 GiB an Aktivitätsprotokolldaten analysiert werden, um sinnvolle Automatisierungen vorzuschlagen. Für sich stark wiederholende Aufgaben werden jedoch möglicherweise viel weniger Daten benötigt. |
Process Mining |
|
|
Minimaler Platzbedarf, der nur von Benutzern genutzt wird, die Daten über das Process Mining-Portal hochladen. Etwa 10 GiB Speicherplatz sollten zu Beginn ausreichen. |