- Überblick
- Anforderungen
- Empfohlen: Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 1: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 2: Konfigurieren des externen Objektspeichers
- Schritt 3: Konfigurieren eines High Availability Add-ons
- Schritt 4: Konfigurieren von Microsoft SQL Server
- Schritt 5: Konfigurieren des Lastausgleichs
- Schritt 6: Konfigurieren des DNS
- Schritt 7: Konfigurieren der Datenträger
- Schritt 8: Konfigurieren der Einstellungen auf Kernel- und Betriebssystemebene
- Schritt 9: Konfigurieren der Knotenports
- Schritt 10: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Schritt 13: Generieren von cluster_config.json
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- install-uipath.sh-Parameter
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Umleitung des Datenverkehrs für die nicht unterstützten Dienste auf den primären Cluster
- Überwachung und Warnungen
- Migration und Upgrade
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren des eigenständigen Orchestrators
- Schritt 7: Migrieren von eigenständigen Insights
- Schritt 8: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Migrieren von der Automation Suite unter Linux zur Automation Suite unter EKS/AKS
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Produktspezifische Konfiguration
- Verwenden des Orchestrator-Konfiguratortools
- Konfigurieren von Orchestrator-Parametern
- Orchestrator-appSettings
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- Upgrade von Automation Suite 2022.10.10 und 2022.4.11 auf 2023.10.2
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- SQL-Verbindungszeichenfolge der Testautomatisierung wird ignoriert
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Datenträger kann nicht verbunden werden und verbleibt im Status der „Attach/Detach“-Schleife
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Fehlerhafte Insights-Komponente verursacht Fehlschlag der Migration
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Docker-Registrierungsmigration bleibt in PVC-Löschphase hängen
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10
- Upgrade schlägt in Offline-Umgebungen fehl
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Upgrade/Neuinstallationsfehler des Longhorn REST API-Endpunkts
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Nach Disaster Recovery funktioniert Dapr für Process Mining und Task Mining nicht mehr ordnungsgemäß.
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Ausführen des Diagnosetools
- Verwenden des Automation Suite Support Bundle-Tools
- Erkunden von Protokollen
Schritt 4: Konfigurieren von Microsoft SQL Server
Jedes Produkt in der Automation Suite benötigt eine eigene SQL-Datenbank mit entsprechenden Spezifikationen.
Standardmäßig erstellt das Installationsprogramm während des Installationsvorgangs alle Datenbanken für Sie. Sie müssen dazu die erforderlichen Berechtigungen für das Installationsprogramm auf Ihrem SQL-Server zur Verfügung stellen.
Alternativ können Sie eigene Datenbanken erstellen. In der folgenden Tabelle finden Sie die Namen, die Sie verwenden müssen.
Wenn Sie eigene Datenbanken für eine neue Automation Suite-Installation einsetzen möchten, empfehlen wir dringend, neue Datenbanken einzurichten, anstatt vorhandene zu verwenden. Diese Vorsichtsmaßnahme ist notwendig, um Konflikte mit dem Betrieb der Automation Suite zu vermeiden, die aufgrund von übrig gebliebenen Metadaten aus alten Datenbanken auftreten können.
In der folgenden Tabelle sind die Datenbanknamen und das entsprechende Format aufgeführt.
Produkt/Dienst |
Standard-Datenbankname |
Format der Verbindungszeichenfolge |
---|---|---|
Gemeinsame Plattformfunktionen |
| |
Orchestrator |
| |
Action Center |
| |
Automation Suite-Roboter |
| |
Automation Hub |
| |
Data Service |
| |
Insights |
| |
Test Manager |
| |
Task Mining |
| |
AI Center |
| |
Apps | AutomationSuite_Apps 1 | ODBC |
Document Understanding |
| |
Process Mining |
AutomationSuite_ProcessMining_Warehouse 2AutomationSuite_Airflow 3 |
#{
enthalten.
AutomationSuite_ProcessMining_Warehouse
verwendet sowohl das ADO.NET- als auch das PYODBC-Format.
AutomationSuite_Airflow
verwendet das PYODBC-Verbindungszeichenfolgenformat. AutomationSuite_Airflow
muss READ_COMMITTED_SNAPSHOT
aktiviert haben, wenn Datenbanken manuell erstellt werden. Die Verbindung zur AutomationSuite_Airflow
-Datenbank darf nicht mit einem {
-Zeichen beginnen.
Wenn Sie die Verbindungszeichenfolgen manuell in der Konfigurationsdatei festlegen, können Sie SQL-, JDBC- oder ODBC-Kennwörter wie folgt maskieren:
- für SQL: Fügen Sie
'
am Anfang und Ende des Kennworts hinzu und verdoppeln Sie alle anderen'
. - für JDBC/ODBC: Fügen Sie
{
am Anfang des Kennworts und}
am Ende hinzu, und verdoppeln Sie alle anderen}
.
Sie können die Datenbanken für einen wirtschaftlicheren Einsatz in einem elastischen Pool verwenden.
SQL_Latin1_General_CP1_CI_AS
festgelegt ist. Wir empfehlen dringend dieses spezielle Setup für optimale Leistung und Stabilität.
Sie können zwar eine Sortierreihenfolge Ihrer Wahl verwenden, aber beachten Sie, dass ungetestete Konfigurationen möglicherweise zu unerwarteten Problemen führen können.
Wir raten davon ab, binäres SQL oder Kollationen zu verwenden, bei denen die Groß- und Kleinschreibung beachtet wird, da diese bei der Installation der Automation Suite zu bekannten Problemen führen.
dbcreator
gewähren.
db_owner
und db_securityadmin
für alle Automation Suite-Datenbanken gewähren.
db_owner
nicht zulassen, sollte das SQL-Konto über die folgenden Rollen und Berechtigungen für alle Datenbanken verfügen (die einzige Ausnahme ist Insights, für das weiterhin db_owner
erforderlich ist).
db_securityadmin
db_ddladmin
db_datawriter
db_datareader
- Berechtigung
EXECUTE
für das Schema „dbo“
db_securityadmin
und db_ddladmin
nur während der Installation oder wenn die Datenbanken neu bereitgestellt werden, sodass Sie diese Berechtigung später widerrufen können.
Für Document Understanding muss der SQL-Server über die Volltextsuchkomponente der SQL Server Datenbank-Engine verfügen, die nicht immer standardmäßig installiert ist.
Wenn Sie bei der Installation von SQL Server keine Volltextsuche ausgewählt haben, führen Sie das SQL Server-Setup erneut aus, um es hinzuzufügen, bevor Sie Document Understanding konfigurieren.
Weitere Informationen finden Sie im Handbuch zum Hinzufügen/Installieren von Funktionen auf SQL Server. Hier können Sie alle Komponenten überprüfen, die SQL Server hinzugefügt werden können, einschließlich der Volltextsuche.
.json
-Funktionen.
Stellen Sie für Azure SQL sicher, dass die Datenbank das S3-Dienstziel oder höher ist.
Stellen Sie sicher, dass die Kompatibilitätsstufe für die Insights-Datenbank auf 130 oder höher festgelegt ist. In den meisten Fällen erfüllen die Standardeinstellungen diese Anforderung. Weitere Informationen finden Sie unter Anzeigen und Ändern des Kompatibilitätsgrads einer Datenbank – SQL Server.
Die Installation überprüft sowohl Bedingungen als auch Warnungen, wenn Mindestanforderungen nicht erfüllt sind.
Data Service erfordert SQL Server-Version 2016 oder höher.
Wenn Sie Ihre eigene Datenbank mit SQL Server-Version 2019 oder höher erstellen, stellen Sie sicher, dass Sie Ihren Benutzern die folgenden Data Service-Berechtigungen gewähren:
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
AutomationSuite_ProcessMining_Warehouse
für die Datenspeicherung für Process Mining-Prozess-Apps.
AutomationSuite_ProcessMining_Warehouse
-Datenbanken verwenden. Nicht standardmäßige SQL Server-Ports werden nicht unterstützt.
AutomationSuite_ProcessMining_Warehouse
.
Stellen Sie beim Einrichten von Microsoft SQL Server sicher, dass die Zeitzone der SQL Server-Maschine, auf der die Airflow-Datenbank und eine dedizierte Process Mining-Datenbank installiert sind, auf UTC festgelegt ist.
Um die Hardwareanforderungen zu berechnen, müssen Sie Folgendes angeben:
- der Anzahl der Ereignisse (Millionen) in Ihrem Prozess.
-
die Anzahl der Fall- und Ereignisfelder in Ihren Ausgabedaten.
Hinweis: In einer Entwicklungsumgebung wird aus Leistungsgründen empfohlen, an einem kleinen Entwicklungs-Dataset mit einer begrenzten Anzahl von Datensätzen zu arbeiten.
Sie können den Kapazitätsrechner verwenden , um die Hardwareanforderungen zum Einrichten einer dedizierten Microsoft SQL Server-Maschine für Process Mining zu bestimmen. Wenn Sie Process Mining zum Produktabschnitt hinzufügen, werden die Mindestanforderungen für 1 dedizierten SQL-Server angezeigt.
Siehe auch Hardwareanforderungen.
db_securityadmin
auf Datenbankebene haben, um die App-spezifische Sicherheit auf dem Data-Warehouse-SQL-Server von Process Mining zu aktivieren. Weitere Informationen finden Sie in der offiziellen Microsoft -Dokumentation zu Rollen auf Datenbankebene.
Siehe auch Konfigurieren der Prozess-App-Sicherheit.
AutomationSuite_Platform
für AI Events- und AI Storage-Dienste erstellen.
-
Bevor Sie die Automation Suite-Installation starten, führen Sie die folgenden Schritte aus:
-
Aktivieren Sie FIPS 140-2 auf der Maschine, auf der Sie Microsoft Server installieren möchten, indem Sie die Anweisungen von Microsoft befolgen.
-
Installieren Sie Microsoft SQL-Server auf der FIPS 140-2-fähigen Maschine.
-
Rufen Sie das Microsoft SQL Server-Zertifikat ab, indem Sie den folgenden Befehl vom SQL-Server oder einem beliebigen Server ausführen, der eine Verbindung zum SQL-Server mit dem konfigurierten SQL-Hostnamen herstellen kann:
nmap -sV -p <port> -vv --script ssl-cert domain
nmap -sV -p <port> -vv --script ssl-cert domain
-
-
Führen Sie während der Installation der Automation Suite die folgenden Schritte aus:
-
Hängen Sie die folgenden Werte an die Verbindungszeichenfolge
sql_connection_string_template_jdbc
des AI Centers in der Dateicluster_config.json
an:encrypt=true;trustServerCertificate=false;fips=true;
.Beispiel:
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"Weitere Informationen zur Datenbankkonfiguration finden Sie unter Erweiterte Installation und Aktualisieren der SQL-Datenbank.
-
Fügen Sie das exportierte Zertifikat aus Schritt 1.c. zum Vertrauensspeicher der Hostmaschine hinzu. Weitere Details finden Sie unter Aktualisieren der Zertifikate von Zertifizierungsstellen.
-
Für eine Hochverfügbarkeitskonfiguration Ihres SQL-Servers wählen Sie eine Always On-Verfügbarkeitsgruppe aus. Weitere Informationen finden Sie unter Übersicht über Always On-Verfügbarkeitsgruppen.
READ_COMMITTED_SNAPSHOT
auf ON
festgelegt ist.
READ_COMMITTED_SNAPSHOT
aktiviert oder deaktiviert ist:
SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name= 'UiPath'
SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name= 'UiPath'
1
.
0
. Verwenden Sie diese Abfrage, um sie zu aktivieren:
ALTER DATABASE UiPath
SET READ_COMMITTED_SNAPSHOT ON
ALTER DATABASE UiPath
SET READ_COMMITTED_SNAPSHOT ON
READ_COMMITTED_SNAPSHOT
auch für diese aktiviert sein.
- Datenbanken
- Anforderungen für SQL-Zusammenstellungen
- Berechtigungen
- SQL-Voraussetzungen für die Volltextsuche
- SQL-Voraussetzungen für Insights
- SQL-Anforderungen für Data Service
- SQL-Anforderungen für Process Mining
- SQL-Anforderungen für das AI Center
- Anforderungen für das AI Center, das mit einem externen Orchestrator verbunden ist
- Anforderungen für das AI Center, installiert auf einer FIPS 140-2-fähigen Maschine
- SQL-Anforderungen für HA
- SQL-Voraussetzungen für den Orchestrator