- Überblick
- Anforderungen
- Empfohlen: Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 1: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 2: Konfigurieren des externen Objektspeichers
- Schritt 3: Konfigurieren eines High Availability Add-ons
- Schritt 4: Konfigurieren von Microsoft SQL Server
- Schritt 5: Konfigurieren des Lastausgleichs
- Schritt 6: Konfigurieren des DNS
- Schritt 7: Konfigurieren der Datenträger
- Schritt 8: Konfigurieren der Einstellungen auf Kernel- und Betriebssystemebene
- Schritt 9: Konfigurieren der Knotenports
- Schritt 10: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Schritt 13: Generieren von cluster_config.json
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- install-uipath.sh-Parameter
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Umleitung des Datenverkehrs für die nicht unterstützten Dienste auf den primären Cluster
- Überwachung und Warnungen
- Migration und Upgrade
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren des eigenständigen Orchestrators
- Schritt 7: Migrieren von eigenständigen Insights
- Schritt 8: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Migrieren von der Automation Suite unter Linux zur Automation Suite unter EKS/AKS
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Produktspezifische Konfiguration
- Verwenden des Orchestrator-Konfiguratortools
- Konfigurieren von Orchestrator-Parametern
- Orchestrator-appSettings
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Paket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- Upgrade von Automation Suite 2022.10.10 und 2022.4.11 auf 2023.10.2
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Datenträger kann nicht verbunden werden und verbleibt im Status der „Attach/Detach“-Schleife
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Fehlerhafte Insights-Komponente verursacht Fehlschlag der Migration
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Docker-Registrierungsmigration bleibt in PVC-Löschphase hängen
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10
- Upgrade schlägt in Offline-Umgebungen fehl
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Nach Disaster Recovery funktioniert Dapr für Process Mining und Task Mining nicht mehr ordnungsgemäß.
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Ausführen des Diagnosetools
- Verwenden des Automation Suite Support Bundle-Tools
- Erkunden von Protokollen
Schritt 1: Vorbereiten der Azure-Bereitstellung
Die Bereitstellung erfordert Zugriff auf ein Azure-Abonnement und eine Ressourcengruppe mit der RBAC-Rolle Besitzer. Die Rolle Besitzer ist erforderlich, um eine vom Benutzer zugewiesene verwaltete Identität mit der Rolle Mitwirkender zu erstellen, die im Ressourcengruppenbereich zugewiesen ist. Die verwaltete Identität wird für die Verwaltung der VMs benötigt (durchführen von Scale-In- und Scale-Out-Aktionen, Anwenden des Instanzschutzes, Aktualisieren des Betriebssystems).
Sie können mit diesen Schritten Ihre Rollenzuweisung überprüfen:
Ressourcengruppe → Zugriffssteuerung (IAM) → Zugriff überprüfen → Eigenen Zugriff anzeigen
Die Bereitstellung bietet eine Reihe von Standard_D-VMs (allgemeine Zwecke), Standard_F-VMs und/oder Standard_NC-VMs (mit GPU). Das Azure-Abonnement hat ein Kontingent für die Anzahl der Kerne, die für die VM-Familie bereitgestellt werden können.
Einige der bereitgestellten VMs müssen mit Premium SSDs und, je nach Konfiguration, Ultra SSDs bereitgestellt werden. Stellen Sie sicher, dass diese SSDs verfügbar sind und nicht durch eine Richtlinie blockiert werden.
Wir verwenden elastische SQL-Pools, um die Datenbanken bereitzustellen. Stellen Sie sicher, dass elastische SQL-Pools nicht durch eine Richtlinie blockiert werden.
Überprüfen Sie das Abonnementkontingent, indem Sie im Azure-Portal zu Nutzung + Kontingente wechseln.
Als Teil des Installationsprozesses fügen wir allen Knoten einer Serverskalierungsgruppe einen Instanzschutz vor Skalierungsgruppenvorgängen hinzu. Da diese Vorgänge von Azure aus ohne den Serverkontext durchgeführt werden, wird eine Fehlfunktion des Clusters verhindert. Wir bieten Runbooks für die Verwaltung von Clustern an. Weitere Informationen zum Schutz von Serverskalierungsgruppen finden Sie in der Azure-Dokumentation.
Wir bieten Unterstützung bei der Beendigung von Instanzen für Agent-VM-Instanzen. Das bedeutet, dass wir beim Beenden einer Agent-VM-Instanz diesen Knoten aus dem Automation Suite-Cluster sperren, entleeren und löschen.
Wir führen ein Skript auf jeder Agent-VM-Instanz aus, die den Instanzmetadatendienst für Beendigungsereignisse bündelt. Immer wenn wir ein Ereignis empfangen, lösen wir einen Cordon- und einen Drain-Befehl auf dem jeweiligen Knoten aus, und ein Server führt auch einen Löschbefehl für diesen Knoten aus.
logs
. Jede Protokolldatei enthält den Namen des Knotens und das Suffix -termination.log
.
Stellen Sie sicher, dass die VM-SKUs für die Region verfügbar sind, in der Sie die Bereitstellung planen.
Sie können die Verfügbarkeit überprüfen unter: Azure-Produkte nach Region.
.crt
-Zertifikate Base64-codiert sind, bevor Sie sie bereitstellen.
.pfx
-Zertifikat (Serverzertifikat). Sie können diese Strings dann beim Ausfüllen der Vorlagenparameter verwenden. Sie können dieses Bash-Skript auf einer Windows-Maschine mit dem Windows-Subsystem für Linux ausführen. Zum Konvertieren der Zertifikate wird openssl
verwendet. Denken Sie daran, dass das Serverzertifikat (.pfx
) einigeAnforderungen erfüllen muss.
.pfx
erfordern:
pfxFile=<path of the pfx file>
# Key
openssl pkcs12 -in $pfxFile -nocerts -out serverCertKeyEncrypted.key
openssl rsa -in serverCertKeyEncrypted.key -out serverCertKeyDecrypted.key
# Server cert
openssl pkcs12 -in $pfxFile -clcerts -nokeys -out serverCert.crt
# CA Bundle:
openssl pkcs12 -in $pfxFile -cacerts -nokeys -chain | sed -ne '/-BEGIN CERTIFICATE-/,/-END CERTIFICATE-/p' > caBundle.crt
# Converting to base64 and removing newlines
cat serverCertKeyDecrypted.key | base64 | tr -d '\n' > base64CertKey
cat serverCert.crt | base64 | tr -d '\n' > base64Cert
cat caBundle.crt | base64 | tr -d '\n' > base64CABundle
pfxFile=<path of the pfx file>
# Key
openssl pkcs12 -in $pfxFile -nocerts -out serverCertKeyEncrypted.key
openssl rsa -in serverCertKeyEncrypted.key -out serverCertKeyDecrypted.key
# Server cert
openssl pkcs12 -in $pfxFile -clcerts -nokeys -out serverCert.crt
# CA Bundle:
openssl pkcs12 -in $pfxFile -cacerts -nokeys -chain | sed -ne '/-BEGIN CERTIFICATE-/,/-END CERTIFICATE-/p' > caBundle.crt
# Converting to base64 and removing newlines
cat serverCertKeyDecrypted.key | base64 | tr -d '\n' > base64CertKey
cat serverCert.crt | base64 | tr -d '\n' > base64Cert
cat caBundle.crt | base64 | tr -d '\n' > base64CABundle
Connect AiCenter to an external Orchestrator
auf true
festlegen und Zertifikate für Orchestrator und Identity für die unter Bereitstellen der Automation Suite in Azure aufgeführten Parameter bereitstellen. Ausführliche Informationen zum Abrufen der Zertifikate finden Sie unter Kettenzertifikate.
Führen Sie die folgenden Befehle aus, um die Zertifikate im base64-Format zu codieren:
cat orchestrator.cer | base64 | tr -d '\n' > orchestratorCert
cat identity.cer | base64 | tr -d '\n' > identityCert
cat orchestrator.cer | base64 | tr -d '\n' > orchestratorCert
cat identity.cer | base64 | tr -d '\n' > identityCert
Um AI Center beim externen Orchestrator zu registrieren, müssen Sie das Runbook RegisterAiCenterExternalOrchestrator ausführen.
Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
Standardmäßig stellen die Vorlagen die VMs in so vielen Azure-Verfügbarkeitszonen wie möglich bereit, um die Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten zu aktivieren.
Nicht alle Azure-Regionen unterstützen Verfügbarkeitszonen. Weitere Informationen finden Sie unter Azure-Geographien.
VM-SKUs haben zusätzliche Verfügbarkeitszonenbeschränkungen, die Sie mit dem CLI-cmdlet prüfen können. Weitere Informationen finden Sie unter Get-AzComputeResourceSku.
Der Cluster gilt als vor zonalen Ausfällen geschützt, wenn die Server über drei Azure-Verfügbarkeitszonen verteilt sind. Wenn die Azure-Region keine Verfügbarkeitszonen für den für Server ausgewählten VM-Typ unterstützt, wird die Bereitstellung ohne Widerstandsfähigkeit gegen zonale Ausfälle fortgesetzt.
Die Vorlage enthält einen Azure Load Balancer (Lastausgleich) mit einer öffentlichen IP und einem DNS-Label für den Zugriff auf die Dienste.
<dnsName>.<regionName>.cloudapp.azure.com
.
Azure-provided
festgelegt ist oder auf 168.63.129.16
.
Wenn Sie über das Internet auf den Cluster zugreifen möchten, können Sie sich Schritt 3: Schritte nach der Bereitstellung ansehen.
Mit der Vorlage können Sie die Knoten in einem vorhandenen virtuellen Netzwerk bereitstellen. Das virtuelle Netzwerk muss jedoch über ein Subnetz verfügen, das die folgenden Anforderungen erfüllt:
- hat genügend freien Adressraum für alle Knoten und den internen Lastausgleich;
- ausgehende Konnektivität; vorzugsweise über ein NAT-Gateway gemäß Microsoft-Empfehlung konfiguriert;
- lässt HTTPS-Datenverkehr auf Port
443
zu; - Optional: Hat einen Dienstendpunkt, der für
Microsoft.Storage
konfiguriert ist. Dies ist erforderlich, wenn Sie die Sicherung zum Zeitpunkt der Bereitstellung aktivieren.
Bei der Bereitstellung in einem vorhandenen virtuellen Netzwerk müssen Sie die Besitzer-RBAC-Rolle darauf haben, um eine Mitwirkende-Rollenzuweisung in seinem Bereich zu erstellen. Dies ist für den Vorgang Instanzaktualisierung beim Hochskalieren erforderlich.
# of server nodes
x 512 GiB), das als NFS-Freigabe verwendet wird, und das Konfigurieren der Sicherung für den Cluster. Standardmäßig ist das Sicherungsintervall auf 90 Minuten festgelegt und das Aufbewahrungsintervall beträgt 72 Stunden. Sie können die Sicherungs- und Aufbewahrungsintervalle nach der Bereitstellung ändern. Weitere Informationen finden Sie unter BackupCluster.
- Azure-Abonnement und -Berechtigungen
- Kontingente
- Instanzschutz
- Instanzbeendigung
- Verfügbarkeit der VM-Familien-Region
- Cluster certificate configuration
- External Orchestrator certificates
- Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Dns
- Bereitstellen in einem vorhandenen virtuellen Netzwerk
- Sicherung