- Überblick
- Anforderungen
- Installation
- Voraussetzungsprüfungen
- Herunterladen der Installationspakete
- uipathctl-Cluster
- uipathctl-Clusterwartung
- uipathctl cluster maintenance disable
- uipathctl cluster maintenance enable
- uipathctl cluster maintenance is-enabled
- uipathctl cluster migration
- uipathctl cluster migration export
- uipathctl cluster migration import
- uipathctl cluster migration run
- uipathctl-Cluster-Upgrade
- uipathctl config
- uipathctl config add-host-admin
- uipathctl config additional-ca-certificates
- uipathctl config additional-ca-certificates get
- uipathctl config additional-ca-certificates update
- uipathctl config-Warnungen
- uipathctl config Alerts add-email
- uipathctl config alerts remove-email
- uipathctl config alerts update-email
- uipathctl config argocd
- uipathctl config argocd ca-certificates
- uipathctl config argocd ca-certificates get
- uipathctl config argocd ca-certificates update
- uipathctl config argocd generate-dex-config
- uipathctl config argocd generate-rbac
- uipathctl config argocd registry
- uipathctl config argocd registry get
- uipathctl config argocd registry update
- uipathctl config enable-basic-auth
- uipathctl config Orchestrator
- uipathctl config Orchestrator get-config
- uipathctl config orchestrator update-config
- uipathctl config saml-certificates get
- uipathctl config saml-certificates rotate
- uipathctl config saml-certificates update
- uipathctl config tls-certificates
- uipathctl config tls-certificates get
- uipathctl config tls-certificates update
- uipathctl config token-signing-certificates
- uipathctl config token-signing-certificates get
- uipathctl config token-signing-certificates rotate
- uipathctl config token-signing-certificates update
- UiPathctl-Zustand
- Uipathctl-Gesundheitspaket
- Uipathctl-Zustandsprüfung
- uipathctl health diagnose
- uipathctl health test
- uipathctl-Manifest
- uipathctl manifest apply
- uipathctl manifest diff
- uipathctl manifest get
- uipathctl manifest get-revision
- uipathctl Manifest list-applications
- uipathctl manifest list-revisions
- uipathctl manifest render
- uipathctl-Voraussetzung
- uipathctl prereq create
- uipathctl prereq run
- „uipathctl“-Ressource
- uipathctl-Ressourcenbericht
- uipathctl-Snapshot
- uipathctl-Snapshot-Sicherung
- uipathctl snapshot backup create
- uipathctl snapshot backup disable
- uipathctl snapshot backup enable
- uipathctl snapshot delete
- uipathctl snapshot list
- uipathctl snapshot restore
- uipathctl snapshot restore create
- uipathctl snapshot restore delete
- uipathctl snapshot restore history
- uipathctl snapshot restore logs
- uipathctl-Version
- Nach der Installation
- Migration und Upgrade
- Aktualisieren der Automation Suite auf EKS/AKS
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren des eigenständigen Orchestrators
- Schritt 7: Migrieren von eigenständigen Insights
- Schritt 8: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Migrieren von der Automation Suite unter Linux zur Automation Suite unter EKS/AKS
- Überwachung und Warnungen
- Clusterverwaltung
- Produktspezifische Konfiguration
- Verwenden des Orchestrator-Konfiguratortools
- Konfigurieren von Orchestrator-Parametern
- Orchestrator-appSettings
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Fehlersuche und ‑behebung
Bereitstellungsszenarien
Eine Onlinebereitstellung der Automation Suite erfordert Internetzugang während der Installation und Laufzeit. Alle UiPath®-Produkte und unterstützenden Bibliotheken werden in der UiPath®-Registrierung oder in einem von UiPath vertrauten Drittanbieterspeicher gehostet.
Sie können den Zugriff auf das Internet mithilfe einer eingeschränkten Firewall oder eines Proxyservers einschränken, indem Sie den gesamten Datenverkehr über das Internet blockieren, der nicht von der Automation Suite benötigt wird. Weitere Informationen zu Firewall- oder Proxyregeln finden Sie unter Konfigurieren des Proxys.
Eine Offlinebereitstellung (Air Gap) ist ein vollständig isoliertes Setup ohne Zugriff auf das Internet. Ein solches Setup erfordert die Installation einer zusätzlichen Registrierung, um alle Container-Images und Binärdateien der UiPath®-Produkte zu speichern, die in Form eines Tarballs bereitgestellt werden.
Sie dürfen die Bereitstellungsmethode nach der Installation nicht ändern. Das bedeutet, dass Sie nicht in die Offline-Installation wechseln können, wenn die Installation online durchgeführt wird und umgekehrt. Es wird empfohlen, ihre Bereitstellungsstrategie nach sorgfältiger Überlegung auszuwählen.
Sie können die folgenden Architekturdiagramme nutzen, um die Automation Suite auf EKS bereitzustellen.
Onlinebereitstellung
Offlinebereitstellung
Das vorherige Architekturdiagramm zeigt, wie die Automation Suite im AWS EKS-Cluster eingerichtet werden kann.
Ein EKS-Cluster wird in einer einzelnen AWS-Region bereitgestellt, in der sich die EC2-Worker-Knoten in einer Autoskalierungsgruppe befinden, die über drei Verfügbarkeitszonen verteilt ist. Die Verteilung von Knoten über Verfügbarkeitszonen hinweg bringt die Widerstandsfähigkeit bei vollständigen Zonenausfällen mit sich.
Jede Zone hat ein privates Subnetz und ein öffentliches Subnetz. EC2-Worker-Knoten werden in einem privaten Subnetz gehostet, während das öffentliche Subnetz eine elastische IP-Adresse und ein NAT-Gateway hostet. Das NAT-Gateway muss eine Verbindung mit dem Internet herstellen, während es von den Worker-Knoten auf die EKS-Steuerungsebene zugreift und eine Verbindung mit der Docker-Registrierung herstellt, um die Container-Images für die Automation Suite -Bereitstellung abzurufen.
Elastische IP-Adressen, die in jedem öffentlichen Subnetz gehostet werden, werden während der Installation an die Automation Suite übergeben, um diese als Endpunkt zu registrieren, an dem Istio auf eingehenden Datenverkehr lauschen muss. Aus dem gleichen Grund muss der Network Load Balancer (NLB) diese Endpunkte verwenden, um alle Anforderungen an die Automation Suite weiterzuleiten.
Datenquellen wie Amazon RDS für Microsoft SQL Server, S3-Buckets, Elastic File System und Elastic Cache sollten so eingerichtet werden, dass sie im Falle eines Ausfalls über genügend Redundanz verfügen, und müssen über das private Subnetz aufgerufen werden, in dem die EC2-Worker-Instanzen gehostet werden.
-
Die Automation Suite verfügt über keine Affinitätsregeln, um sicherzustellen, dass die Arbeiter-Pods gleichmäßig über die Zone verteilt sind. Bei einem Ausfall auf Zonenebene kann es zu einer vorübergehenden Beeinträchtigung des Dienstes kommen, die behoben wird, wenn der Dienst automatisch von der EKS-Steuerungsebene in eine neue Zone verschoben wird.
-
Insights erfordert, dass die EBS-Volumes das Dashboard und die anderen Metadaten speichern. In AWS sind EBS-Volumes an die Zone gebunden, in der sie sich befinden, und werden nicht verschoben, wenn die Zone ausfällt. Insights sind erst verfügbar, wenn die Zone, für die Insights geplant wurden, wiederhergestellt ist.
-
EKS aktiviert im Gegensatz zu AKS standardmäßig kein Autoscaling. Um diese Funktion zu aktivieren, müssen Sie in der Regel zusätzliche Software wie Metrics Server und Cluster-Autoscaler oder alternative Lösungen mit ähnlichen Autoscaling-Funktionen installieren und konfigurieren.
Sie können die folgenden Architekturdiagramme nutzen, um die Automation Suite auf AKS bereitzustellen.
Onlinebereitstellung
Offlinebereitstellung
Ein AKS-Cluster wird in einer einzelnen Region bereitgestellt, in der die Worker-Knoten über die System- und Benutzerknotenpools verteilt sind. Die grundlegenden AKS-Komponenten (außer die Steuerungsebene) werden im Systemknotenpool gehostet, z. B. CNI, CoreDNS usw. Zudem werden auch grundlegende UiPath®-Dienste im gleichen Knotenpool gehostet. Zusätzliche Benutzerknotenpools können die Worker-Knoten für Automation Suite Robots, Task Mining und GPU hosten.
Jeder Knotenpool hostet die Virtuelle Maschinenskalierungsgruppe (VMSS) und stellt sicher, dass die Arbeiterknoten über mehrere Zonen verteilt sind, um Widerstandsfähigkeit gegen Zonenausfälle zu bieten und bei Bedarf zu skalieren.
Die statische IP-Adresse, die dem Lastausgleich zugeordnet ist, wird während der Installation an die Automation Suite übergeben, um diese als Endpunkt zu registrieren, an dem Istio auf eingehenden Datenverkehr lauschen muss. Aus dem gleichen Grund muss der Azure Load Balancer (L4) diese Endpunkte verwenden, um Anfragen an die Automation Suite weiterzuleiten.
Datenquellen wie Microsoft SQL Server, ein Azure Storage-Konto und Azure Redis Cache sollten so eingerichtet werden, dass sie im Falle eines Ausfalls über genügend Redundanz verfügen, und müssen über das Subnetz aufgerufen werden, in dem die AKS-Worker-Knoten gehostet werden.
Darüber hinaus kann ein zusätzlicher Jump Box/Bastion Server erforderlich sein, der über alle erforderlichen Berechtigungen für den Betrieb des AKS-Clusters verfügt.
Die Automation Suite verfügt über keine Affinitätsregeln, um sicherzustellen, dass die Arbeiter-Pods gleichmäßig über die Zone verteilt sind. Bei einem Fehler auf Zonenebene kann es zu einer vorübergehenden Beeinträchtigung des Dienstes kommen, die behoben wird, wenn der Dienst automatisch von der AKS-Steuerungsebene in eine neue Zone verschoben wird.