- Überblick
- Anforderungen
- Installation
- Fragen und Antworten: Bereitstellungsvorlagen
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- Online-Auswertungsinstallation mit einem Knoten
- Offline-Auswertungsinstallation mit einem Knoten
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des Lastausgleichs
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- HA-fähige Online-Produktionsinstallation mit mehreren Knoten
- HA-fähige Offline-Produktionsinstallation mit mehreren Knoten
- Disaster Recovery – Installieren des sekundären Clusters
- Herunterladen der Installationspakete
- install-uipath.sh-Parameter
- Aktivieren eines High Availability Add-ons für den Cluster
- Document Understanding-Konfigurationsdatei
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Wechsel zum sekundären Cluster
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv-/Passiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv-Bereitstellung
- Überwachung und Warnungen
- Migration und Upgrade
- Migrationsoptionen
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren von eigenständigen Insights
- Schritt 7: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Produktspezifische Konfiguration
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Automatisches Bereinigen von Longhorn-Snapshots
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- GPU-Knoten von Nichtverfügbarkeit von Ressourcen betroffen
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der PVC-Größe
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Patch zur Rückgewinnung von Speicherplatz
- Sicherung aufgrund des Fehlers „TooManySnapshots“ fehlgeschlagen
- Alle Longhorn-Replikate sind fehlerhaft
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- Probleme beim Zugriff auf das schreibgeschützte ArgoCD-Konto
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Prometheus im Zustand „CrashloopBackoff“ mit OOM-Fehler (Out-of-Memory)
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Verwenden des Automation Suite-Diagnosetools
- Verwenden des Automation Suite Support Bundle-Tools
- Erkunden von Protokollen
Verwenden von uipathctl.sh
uipathctl.sh
bietet eine automatisierte Möglichkeit, einen Cluster auf eine neuere Version zu aktualisieren, eine Sicherung zu konfigurieren, einen Cluster wiederherzustellen und vieles mehr, indem es auf einem Knoten ausgeführt wird. Die Automatisierung dieser Aufgaben erfolgt über das IT-Automatisierungstool Ansible.
Parameter |
Beschreibung |
---|---|
|
Aktualisieren Sie den Cluster. |
|
Generieren Sie eine Beispieldatei, die einen Dex-Connector zum Aktivieren von SSO darstellt. |
|
Generieren Sie eine ArgoCD-RBAC-Beispieldatei. |
|
Generieren Sie die Kustomize-Overlays für die ArgoCD- und Dex-Bereitstellung mit SSO. Nützlich beim Debuggen. |
|
Generieren und wenden Sie die Kustomize-Overlays für ArgoCD und Dex mit SSO an. |
|
Dieses Flag wird nur angezeigt, wenn Sie den Befehl
upgrade verwenden.
Schritte, die während Upgradevorgängen ausgeführt werden sollen. Standardwert ist
all .
|
|
Installationstyp. Erforderlich für Upgrade und Wiederherstellung. |
|
Pfad zu Ihrer
cluster_config.json -Datei. Wenn nicht angegeben, wird eine Konfigurationsdatei generiert.
|
|
Pfad zu einer Kubeconfig-Datei, die eine Verbindung mit dem Cluster ermöglicht. Standardwert ist
/etc/rancher/rke2/rke2.yaml .
|
|
Pfad zu einem gültigen Ansible-Inventar, das den Cluster beschreibt. Wenn nicht angegeben, wird eine Bestandsaufnahme generiert. |
|
Der Benutzername, der von Ansible zum Herstellen einer Verbindung mit Clusterknoten verwendet werden soll. Standardmäßig ist der aktuelle Benutzer. |
|
Der private SSH-Schlüssel, der die Konnektivität zu Clusterknoten bereitstellt. Wenn nicht angegeben, wird ein Satz von Kennwörtern abgefragt. |
|
Bitten Sie Ansible, einen Kennwortsatz für SSH-Verbindungen und Erhöhungen anzufordern. |
|
Geben Sie den Pfad zu einem benutzerdefinierten
ansible.cfg an, das verwendet werden soll.
|
|
Pfad zur
as-infra.tar.gz -Datei. Erforderlich für Offline-Upgrades.
|
|
Führen Sie kein CNI-Upgrade durch. |
|
Connector-Typ für
sso-generate-connector .
|
|
Pfad zu einer Datei, die einen Dex Connector für die SSO-Integration enthält. |
|
Pfad zu einer Datei, die einen Dex Connector für die SSO-Integration enthält. |
Ansible verwendet den SSH-Mechanismus, um sich bei einem der Hostknoten oder -maschinen anzumelden, um Aufgaben auszuführen.
uipathctl.sh
ausführen, müssen Sie die folgenden Schritte ausführen:
- Identifizieren Sie den Ansible-Hostknoten.
- Fügen Sie die SSH-Signatur Ihrer Knoten zu den bekannten Hosts hinzu.
- Richten Sie die SSH-Authentifizierungsmethode ein.
- Installieren Sie Ansible und andere erforderliche Tools.
Sie müssen sicherstellen, dass die folgenden Tools auf dem Ansible-Hostknoten installiert sind:
ansible
(v2.8+)ansible-playbook
sshpass
– Nur erforderlich, wenn ein Kennwort für die Authentifizierung zusammen mit dem Parameter --ansible-ask-password verwendet wird.ZIP
Anweisungen finden Sie in den folgenden Abschnitten.
Der Ansible-Hostknoten ist die Maschine, auf der Sie Ansible installieren. Diese Maschine muss ein Serverknoten sein, damit sie über die erforderlichen Berechtigungen zum Ausführen aller Automatisierungen im Cluster verfügt.
Bei Online-Installationen kann der Ansible-Hostknoten einer der Serverknoten sein.
/uipath
bereitgestellt haben. Wenn kein Serverknoten mit angefügtem Datenträger des UiPath-Pakets vorhanden ist, können Sie einfach einen zusätzlichen Datenträger auf einem der vorhandenen Serverknoten bereitstellen und ihn als Ansible-Hostknoten betrachten.
known_hosts
im Ansible-Hostknoten hinzu.
<node-private-ip>
nacheinander durch die private IP-Adresse jedes Knotens im Cluster ersetzen.
ssh-keyscan -H <node-private-ip> >> ~/.ssh/known_hosts
ssh-keyscan -H <node-private-ip> >> ~/.ssh/known_hosts
Ansible unterstützt zwei SSH-Mechanismen:
- Option 1: Schlüsselbasierte SSH-Authentifizierung – Empfohlen. Es verwendet private und öffentliche Schlüssel.
- Option 2: Kennwortbasierte SSH-Authentifizierung
Schritt 1: Einrichten des SSH-Schlüssels
Der SSH-Schlüsselauthentifizierungsmechanismus verwendet eine Kombination aus privaten und öffentlichen Schlüsseln.
Stellen Sie sicher, dass Sie Zugriff auf den öffentlichen Schlüssel des Ansible-Hostknotens auf allen anderen Knoten gewähren, indem Sie ihn kopieren.
ssh-keygen
ausführen.
Generieren von SSH-Schlüsseln
ssh-keygen
generieren. Um den neuen SSH-Schlüssel zu generieren, führen Sie einfach den Befehl ssh-keygen aus und befolgen Sie die Anweisungen.
Führen Sie die folgenden Schritte aus, um einen neuen SSH-Schlüssel zu generieren:
- Generieren Sie einen neuen SSH-Schlüssel mit dem Befehl
ssh-keygen
. -
Notieren Sie sich die Position Ihres Schlüssels. Standardwerte sind:
- Öffentlicher Schlüssel:
~/.ssh/id_rsa.pub
- Privater Schlüssel:
~/.ssh/id_rsa
- Öffentlicher Schlüssel:
- Gewähren Sie Zugriff auf den öffentlichen Schlüssel des Ansible-Hostknotens auf allen anderen Knoten, indem Sie ihn kopieren.
Gewähren des Zugriffs auf den öffentlichen Schlüssel auf jedem Knoten
ssh-copy-id
auf alle Knoten im Cluster (einschließlich des aktuellen Knotens). Wenn der Pfad des öffentlichen SSH-Schlüssels nicht ~/.ssh/id_rsa.pub
ist, müssen Sie ihn entsprechend ersetzen.
ssh-copy-id -i ~/.ssh/id_rsa.pub username@node-private-ip
ssh-copy-id -i ~/.ssh/id_rsa.pub username@node-private-ip
Schritt 2: Bereitstellen des SSH-Schlüsselzugriffs für Ansible
Ansible verwendet den SSH-Mechanismus, um sich bei Hostmaschinen anzumelden und die erforderliche Installation durchzuführen. Aus diesem Grund müssen Sie Ansible den SSH-Schlüsselzugriff gewähren.
Wählen Sie zwischen den folgenden Methoden:
- Option 1: Verwenden von ssh-agent (empfohlen)
- Option 2: Verwenden eines nicht geschützten privaten Schlüssels
ssh-agent
(empfohlen)
ssh-agent
, um Zugriff auf Knoten zu erhalten. Weitere Informationen zu ssh-agent finden Sie im Handbuchzu ssh-agent.
ssh-agent
hinzuzufügen, führen Sie den folgenden Befehl aus:
eval "$(ssh-agent -s)"
ssh-add ~/.ssh/id_rsa
eval "$(ssh-agent -s)"
ssh-add ~/.ssh/id_rsa
Option 2: Verwenden eines nicht geschützten privaten Schlüssels
--ansible-private-key
zu Ihrem uipathctl.sh
-Skript hinzugefügt wird. Der Parameter verwendet den absoluten Pfad des privaten Schlüssels und verwendet ihn für die Authentifizierung.
Sie müssen sicherstellen, dass Ansible und die folgenden anderen unterstützenden Tools auf dem zuvor ausgewählten Ansible-Hostknoten installiert sind.
-
ansible
(v2.8+)Führen Sie Folgendes aus, um zu überprüfen, obansible
installiert wurde:ansible --version &>/dev/null || echo "Error: Ansible is not installed"
ansible --version &>/dev/null || echo "Error: Ansible is not installed" -
ansible-playbook
Führen Sie Folgendes aus, um zu überprüfen, obansible-playbook
installiert wurde:ansible-playbook --version &>/dev/null || echo "Error: Ansible Playbook is not installed"
ansible-playbook --version &>/dev/null || echo "Error: Ansible Playbook is not installed" -
sshpass
– Nur erforderlich, wenn das Kennwort für die Authentifizierung zusammen mit dem Parameter--ansible-ask-password
verwendet wird.Führen Sie Folgendes aus, um zu überprüfen, obsshpass
installiert wurde:sshpass -V &>/dev/null || echo "Error: sshpass is not installed"
sshpass -V &>/dev/null || echo "Error: sshpass is not installed" -
zip
Führen Sie Folgendes aus, um zu überprüfen, obzip
installiert wurde:zip --version &>/dev/null || echo "Error: zip is not installed"
zip --version &>/dev/null || echo "Error: zip is not installed"Wichtig: Wenn bei einem der vorherigen Befehle ein Fehler ausgegeben wird, wird das Zielpaket nicht auf Ihrer Maschine installiert. Stellen Sie sicher, dass Sie die erforderlichen Tools installieren.
yaml
-Ausgabe für Ansible, indem Sie den folgenden Befehl ausführen:
export ANSIBLE_STDOUT_CALLBACK=yaml
export ANSIBLE_STDOUT_CALLBACK=yaml
Diese Funktion wurde in Ansible 2.9 eingeführt und muss für bestimmte Installationen durch Ausführen des folgenden Befehls aktiviert werden:
ansible-galaxy collection install community.general
ansible-galaxy collection install community.general
community.general
-Sammlung immer noch die Meldung ERROR! Invalid callback for stdout specified: yaml
angezeigt wird, können Sie die yaml
-Ausgabe deaktivieren, indem Sie den folgenden Befehl ausführen:
unset ANSIBLE_STDOUT_CALLBACK
unset ANSIBLE_STDOUT_CALLBACK
inventory.ini
-Datei für Ansible. Es gibt jedoch einige Situationen, in denen Sie die inventory.ini
-Datei erstellen und Ansible bereitstellen müssen. Zum Beispiel:
- Beim Wiederherstellen des Clusters aus den Sicherungsdaten. Dies liegt daran, dass zum Zeitpunkt der Wiederherstellung kein fehlerfreier Cluster vorhanden ist, um
inventory.ini
abzuleiten. - Wenn Sie eine erweiterte Konfiguration wie Benutzername und SSH-Schlüssel bereitstellen möchten, die für jeden Knoten sehr spezifisch ist.
Weitere Informationen finden Sie unter Erstellen Ihres eigenen Inventars.
uipathctl.sh
versteht.
[FIRST_SERVER]
'10.0.1.1'
[SECONDARY_SERVERS]
'10.0.1.2'
'10.0.1.3'
[AGENTS]
'10.0.1.4'
'10.0.1.5'
[TASKMINING]
'10.0.1.6'
[GPU]
'10.0.1.7'
[ASROBOTS]
'10.0.1.8'
[all:vars]
ansible_connection=ssh
ansible_timeout=10
ansible_user=admin
[FIRST_SERVER]
'10.0.1.1'
[SECONDARY_SERVERS]
'10.0.1.2'
'10.0.1.3'
[AGENTS]
'10.0.1.4'
'10.0.1.5'
[TASKMINING]
'10.0.1.6'
[GPU]
'10.0.1.7'
[ASROBOTS]
'10.0.1.8'
[all:vars]
ansible_connection=ssh
ansible_timeout=10
ansible_user=admin
„Gruppieren“ (Group) |
Wert |
---|---|
|
Der Ausgangspunkt, an dem Sie das Skript
uipathctl.sh ausführen. Dies wird auch als Ansible-Hostknoten bezeichnet.
Sie müssen die private IP-Adresse für diesen Knoten angeben. |
|
Die Gruppe der anderen Serverknoten im Cluster. Sie müssen die private IP-Adresse aller anderen Serverknoten angeben. |
|
Die Gruppe der Agent-Knoten im Cluster. Sie müssen die private IP-Adresse aller Agent-Knoten angeben. |
|
Die Gruppe der Task Mining-Knoten im Cluster. Sie müssen die private IP-Adresse aller Task Mining-Knoten angeben. |
|
Die Gruppe der GPU-Knoten im Cluster. Sie müssen die private IP-Adresse aller GPU-Knoten angeben. |
|
Die Gruppe der Automation Suite-Roboterknoten im Cluster. Sie müssen die private IP-Adresse aller Automation Suite-Roboterknoten angeben. |
|
Die Gruppe von Variablen, die auf alle zuvor definierten Hostgruppen angewendet wird.
Sie können die Variablen pro Gruppe oder pro Hostknoten angeben. Weitere Informationen finden Sie unter Zuweisen einer Variablen zu vielen Maschinen: Gruppenvariablen. |
Yaml
definiert und Ansible bereitgestellt.
uipathctl.sh
mit --ansible-variables-file
bereit.
#Path where installer zip is available. By default, uipathctl.sh takes the current folder and compress it to zip before copying it to other nodes.
installer_path: /path/to/installer.zip
# Path where installer will be copied on nodes
target_installer_base_path: /opt/UiPathAutomationSuite/<version>/installer
# Install type - online or offline
install_type: online
# Path on nodes where offline bundles will be copied
target_bundle_base_path: /opt/UiPathAutomationSuite/{version}
# Path on nodes where offline bundles will be extracted
target_tmp_path: /opt/UiPathAutomationSuite/tmp
# Basepath and filname for the various config files and bundles on the local machine
cluster_config_filename: cluster_config.json
cluster_config_basepath: /var/tmp/uipathctl_{version}
backup_config_filename: backup_config.json
backup_config_basepath: /var/tmp/uipathctl_{version}
restore_config_filename: restore.json
restore_config_basepath: /var/tmp/uipathctl_{version}
infra_bundle_filename: as-infra.tar.gz
infra_bundle_basepath: /var/tmp/uipath_upgrade_<version>
#Path where installer zip is available. By default, uipathctl.sh takes the current folder and compress it to zip before copying it to other nodes.
installer_path: /path/to/installer.zip
# Path where installer will be copied on nodes
target_installer_base_path: /opt/UiPathAutomationSuite/<version>/installer
# Install type - online or offline
install_type: online
# Path on nodes where offline bundles will be copied
target_bundle_base_path: /opt/UiPathAutomationSuite/{version}
# Path on nodes where offline bundles will be extracted
target_tmp_path: /opt/UiPathAutomationSuite/tmp
# Basepath and filname for the various config files and bundles on the local machine
cluster_config_filename: cluster_config.json
cluster_config_basepath: /var/tmp/uipathctl_{version}
backup_config_filename: backup_config.json
backup_config_basepath: /var/tmp/uipathctl_{version}
restore_config_filename: restore.json
restore_config_basepath: /var/tmp/uipathctl_{version}
infra_bundle_filename: as-infra.tar.gz
infra_bundle_basepath: /var/tmp/uipath_upgrade_<version>
Variable |
Wert |
---|---|
|
Der Pfad von
as-installer.zip . Wenn Sie diesen Wert nicht angeben, komprimiert uipathctl.sh das aktuelle Verzeichnis und kopiert es als ZIP-Datei des Installationsprogramms auf andere Knoten.
|
|
Der Pfad, in den das Installationsprogramm auf die Knoten kopiert wird. Der Standardwert ist `/opt/UiPathAutomationSuite/{version . |
|
Die Installationsmethode. Mögliche Werte sind:
online und offline .
|
|
Der Pfad auf den Knoten, in die die Offlinepakete kopiert werden. Der Standardspeicherort ist `/opt/UiPathAutomationSuite/{version . |
|
Der Pfad auf den Knoten, auf denen das Paket extrahiert wird. Der Standardspeicherort ist
/opt/UiPathAutomationSuite/tmp .
|
|
Der Name der Cluster-Konfigurationsdatei. Der Standardwert ist
cluster_config.json .
|
|
Der Speicherort, an dem
cluster_config.json während der Orchestrierung vorübergehend auf den Knoten gespeichert wird. Der Standardwert ist /var/tmp/uipathctl_{version} .
|
|
Der Name der Sicherungskonfigurationsdatei. Der Standardwert ist
backup.json .
|
|
Der Speicherort, an dem
backup.json während der Orchestrierung vorübergehend auf den Knoten gespeichert wird. Der Standardwert ist /var/tmp/uipathctl_{version} .
|
|
Der Name der Konfigurationsdatei für die Wiederherstellung. Der Standardwert ist
restore.json .
|
|
Der Speicherort, an dem
restore.json während der Orchestrierung vorübergehend auf den Knoten gespeichert wird. Der Standardwert ist /var/tmp/uipathctl_{version} .
|
|
Der Name des Pakets, das die Infrastrukturschichten enthält. Dies ist derselbe, den Sie für das
uipathctl.sh -Skript bereitgestellt haben.
|
|
Der Speicherort, an dem
as-infra.tar.gz während der Orchestrierung vorübergehend auf den Knoten gespeichert wird. Dies ist derselbe, den Sie für das Skript uipathctl.sh bereitgestellt haben.
|
- uipathctl.sh parameters
- Anforderungen
- Identifizieren des Ansible-Hostknotens
- Hinzufügen der SSH-Signatur Ihrer Knoten zu den bekannten Hosts
- Einrichten der SSH-Authentifizierungsmethode
- Option 1: Schlüsselbasierte SSH-Authentifizierung (empfohlen)
- Option 2: Kennwortbasierte SSH-Authentifizierung
- Überprüfen, ob Ansible und andere erforderliche Tools installiert sind
- Erweiterte Ansible-Konfiguration
- Aktivieren der yaml-Ausgabe
- Generieren der Ansible inventory.ini-Datei
- Generieren der Ansible-Variablendatei