- Überblick
- Anforderungen
- Empfohlen: Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 1: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 2: Konfigurieren des externen Objektspeichers
- Schritt 3: Konfigurieren eines High Availability Add-ons
- Schritt 4: Konfigurieren von Microsoft SQL Server
- Schritt 5: Konfigurieren des Lastausgleichs
- Schritt 6: Konfigurieren des DNS
- Schritt 7: Konfigurieren der Datenträger
- Schritt 8: Konfigurieren der Einstellungen auf Kernel- und Betriebssystemebene
- Schritt 9: Konfigurieren der Knotenports
- Schritt 10: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Schritt 13: Generieren von cluster_config.json
- Cluster_config.json-Beispiel
- Allgemeine Konfiguration
- Profilkonfiguration
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- ArgoCD-Konfiguration
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- AI Center-spezifische Konfiguration
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Überwachung und Warnungen
- Migration und Upgrade
- Migrieren zwischen Automation Suite-Clustern
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Anwenden eines Patches
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- So überprüfen Sie die TLS-Version
- So planen Sie die Ceph-Sicherung und Wiederherstellung von Daten
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Datenträger kann nicht verbunden werden und verbleibt im Status der „Attach/Detach“-Schleife
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Fehlerhafte Insights-Komponente verursacht Fehlschlag der Migration
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Docker-Registrierungsmigration bleibt in PVC-Löschphase hängen
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10 oder höher
- Upgrade schlägt in Offline-Umgebungen fehl
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Pods stecken in Init:0/X
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Nach Disaster Recovery funktioniert Dapr für Process Mining und Task Mining nicht mehr ordnungsgemäß.
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Dem Automation Suite-Zertifikat des Servers, auf dem CData Sync ausgeführt wird, wird nicht vertraut
- Ausführen des Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
Automation Suite unter Linux – Installationsanleitung
Fragen und Antworten: Bereitstellungsvorlagen
F: Für das HA-fähige Produktionsprofil mit mehreren Knoten beträgt die Prozessoranforderung für die vollständige Produktauswahl 96 (v-)CPU/Kerne. Bezieht sich diese Anforderung auf Server- und Agent-Knoten oder bezieht sie sich auf Server- oder Agent-Knoten?
A: Unsere Dokumentation zeigt, dass das HA-fähige Produktionsprofil mit mehreren Knoten mindestens 3 Serverknoten mit mindestens CPU/RAM pro Knoten erfordert. Solange diese Bedingung erfüllt ist, können die verbleibenden CPU/RAM-Anforderungen entweder auf zusätzliche Server- oder Agent-Knoten verteilt werden, die auch die Mindestanforderungen an CPU/RAM erfüllen.
F: Ist eine GPU für Task Mining erforderlich?
A: Nein, GPU ist für Task Mining nicht erforderlich.
F: Worauf bezieht sich die Knotenfehlertoleranz im Rechner der UiPath® Automation Suite zur Installationsskalierung? Deckt sie Agent-Knoten, nur Serverknoten oder beides ab?
A: Der Rechner der UiPath® Automation Suite zur Installationsskalierung gibt eine Empfehlung mit Fehlertoleranz, sodass im schlimmsten Fall immer mindestens 3 Serverknoten verfügbar sind. Sie können die Anzahl der Server erhöhen, die ausfallen können, ohne dass die Bereitstellung fehlschlägt.
F: Kann ich eine private Domäne in Amazon Route 53 verwenden?
A: Ja, private gehostete Zonen werden unterstützt.
F: Muss ich auch die DNS-Einträge in der Cloudlösung (z. B. AWS) angeben? Kann ich eine lokale DNS-Lösung mit einer AWS-Bereitstellung der Automation Suite verwenden? Muss der Datensatz beispielsweise im Fall einer URL, auf die der Endbenutzer zugreift, in der Cloud oder im lokalen DNS auflösbar sein?
A: Sie können eine Nicht-Amazon Route 53-DNS-Infrastruktur verwenden. Das DNS muss jedoch in der VPC auflösbar sein, in der Sie die Bereitstellung durchführen.
F: Welches CNI-Plugin wird als Teil von Kubernetes verwendet? Wenn sie beispielsweise vom Anbieter bereitgestellt wird, unterstützt die Kubernetes-Lösung die Integration mit VPC/VNET. Wenn Sie AWS Kubernetes verwenden, erhalten Pods immer dann, wenn der Anbieter Workload erstellt und bereitstellt, IP-Adressen von der VPC selbst. Das bedeutet, dass auf die Workload über AWS- oder Azure-Dienste zugegriffen werden kann.
A: Wir verwenden Cilium CNI. Die Kubernetes-Distribution enthält 3 unterstützte CNIs, jedoch nicht das AWS-spezifische.
F: Passen Sie Dienst-IP- und POD-IP-Bereiche an?
10.42.0.0/16
.
F: Ist es bei der Bereitstellung der Automation Suite in AWS in einer vorhandenen VPC möglich, TerraForm anstelle von CloudFormation zu verwenden?
A: Nein, das ist nicht möglich. Wir verwenden das native Infrastructure-as-Code-Tool des Cloud-Anbieters (CloudFormation für AWS, ARM für Azure).
F:Bedeutet in Bezug auf die vorherige Frage, dass ich Terraform-Code entwickeln muss, wenn mein Standard für IaaC Terraform ist?
A: Wenn Sie die Automation Suite manuell bereitstellen möchten (ohne die vorhandenen AWS- oder Azure-Vorlagen), dann müssen Sie den Terraform-Code entwickeln. Alternativ können Sie die vorhandene CloudFormation-Vorlage für die Bereitstellung oder als Grundlage für die Erstellung des Terraform-Codes verwenden.
F: Wie kann ich die Anzahl der spezialisierten Knoten schätzen, die für Task Mining erforderlich sind?
A: Task Mining erfordert/unterstützt 1 dedizierten Knoten, der sofort einsatzbereit ist.
F: Kann ich Graviton-basierte Prozesse für die Bereitstellung verwenden?
A: Nein, die Kubernetes-Distribution unterstützt ARM nicht.
F: Kann die Automation Suite auf AMD oder nur auf Intel-Prozessoren gehostet werden?
A: Beides ist in Ordnung, solange Sie die Architekturanforderungen erfüllen.
F: Kann ich Automation Suite-Vorlagen unter Ubuntu und CentOS bereitstellen?
A: Nein, Ubuntu und CentOS werden nicht unterstützt.
F: Wie viel Speicherplatz wird bei einer AWS-Bereitstellung reserviert, wenn ein EFS automatisch bereitgestellt wird?
A: EFS hat keine vorab bereitgestellte Größe. Es ist ein nutzungsabhängiges System. EFS enthält alle Sicherungen für alle Datenträger im gesamten Cluster, was bedeutet, dass 6 TiB an Daten verbraucht werden, die Summe des Speicherplatzes aller Knoten.
F: Stellt die Azure-Bereitstellung eine NFS-Lösung bereit, wie dies bei AWS der Fall ist? Wenn ja, wie viel Speicherplatz wird reserviert?
A: NFS ist ein Protokoll mit mehreren möglichen Implementierungen. AWS Elastic File System ist eine solche Implementierung. NFS Server ist eine weitere Implementierung. Azure verfügt über eine andere Implementierung namens Azure Files. Wenn Sie ein Backup erstellen möchten, benötigen Sie eines dieser Infrastrukturelemente.
F: Welcher ist der bevorzugte Clouddienstanbieter: Azure oder AWS?
A : Wir haben keinen bevorzugten Cloud-Dienstanbieter. Wir unterstützen beides.
F: Wenn Autoscaling aktiviert ist, erfordert der Knoten benutzerdefinierte Bilder?
A: Bei der automatischen Skalierung wird Ihr RedHat-Image verwendet, auf dem die UiPath®-Software installiert wird. Wir haben noch keine klaren Daten, aber der Kaltstart liegt im Bereich von 5–10 Minuten.
F: Kann ich die Standard Edition von Microsoft SQL Server verwenden?
A: Wir unterstützen Microsoft SQL Server 2016, 2017 und 2019 Standard und Enterprise Edition. Weitere Informationen zu SQL-Anforderungen finden Sie in unserer Dokumentation.
F: Ist die gesamte vCPU-Anforderung von 96 Kernen von Anfang an erforderlich oder kann sie Teil von Autoscaling sein, bei dem Knoten je nach Ressourcenbedarf hinzugefügt oder entfernt werden?
A : Zum Einschalten des Systems sind 96 Kerne erforderlich. Anschließend können Sie verschiedene Skalierungsstrategien anwenden. Sie dürfen diese Nummer jedoch nicht unterschreiten.
F: Wähle ich das RHEL-Image aus oder ist es in den AWS- oder Azure-Vorlagen vorgeschrieben? Wenn ich sie auswählen muss, welche RHEL-Version sollte ich bei der Bereitstellung über Vorlagen verwenden?
A: Die Bereitstellung verwendet ein einfaches RHEL-Image (das zur Laufzeit bestimmt wird) und erstellt eine Autoscaling-Gruppenvorlage , die angewendet wird, wenn die VM bereitgestellt wird. Das bedeutet, dass die gesamte Software installiert wird, wenn eine neue EC2-Instance erstellt wird. Die Vorlagen verwenden ab sofort RHEL 8.2.
F: Sind andere VMs als für den Kubernetes-Cluster erforderlich?
A: Zur Ausführung der Automation Suite sind keine zusätzlichen VMs außerhalb des Clusters erforderlich. Wenn Sie jedoch keine vorhandenen Maschinen zum Ausführen von UiPath® Robot haben, dann wären diese wahrscheinlich zusätzlich zu Entwickler-VMs oder Desktops für UiPath Studio (IDE) erforderlich.
F: Wird es eine Integration mit CloudWatch- oder Azure Monitor für Kubernetes-Protokollen geben?
A: Derzeit gibt es keine Integration, um Protokolle an CloudWatch zu übertragen.
F: Kann die Automation Suite Open-Source-Datenbanklösungen wie MySQL oder PostgreSQL verwenden?
A : Die Microsoft SQL Server-Anforderung ist unabhängig von der Cloud, in der die Automation Suite bereitgestellt wird.