- Überblick
- Anforderungen
- Installation
- Fragen und Antworten: Bereitstellungsvorlagen
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- Online-Auswertungsinstallation mit einem Knoten
- Offline-Auswertungsinstallation mit einem Knoten
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des Lastausgleichs
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- HA-fähige Online-Produktionsinstallation mit mehreren Knoten
- HA-fähige Offline-Produktionsinstallation mit mehreren Knoten
- Disaster Recovery – Installieren des sekundären Clusters
- Herunterladen der Installationspakete
- install-uipath.sh-Parameter
- Aktivieren eines High Availability Add-ons für den Cluster
- Document Understanding-Konfigurationsdatei
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Wechsel zum sekundären Cluster
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv-/Passiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv-Bereitstellung
- Überwachung und Warnungen
- Migration und Upgrade
- Migrationsoptionen
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren von eigenständigen Insights
- Schritt 7: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Produktspezifische Konfiguration
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Automatisches Bereinigen von Longhorn-Snapshots
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- GPU-Knoten von Nichtverfügbarkeit von Ressourcen betroffen
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der PVC-Größe
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Patch zur Rückgewinnung von Speicherplatz
- Sicherung aufgrund des Fehlers „TooManySnapshots“ fehlgeschlagen
- Alle Longhorn-Replikate sind fehlerhaft
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- Probleme beim Zugriff auf das schreibgeschützte ArgoCD-Konto
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Prometheus im Zustand „CrashloopBackoff“ mit OOM-Fehler (Out-of-Memory)
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Verwenden des Automation Suite-Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
Automation Suite unter Linux – Installationsanleitung
Anleitung: Erweiterte Installation
cluster_config.json
definiert die Parameter, Einstellungen und Präferenzen, die auf die über die Automation Suite bereitgestellten UiPath-Produkte angewendet werden. Sie müssen diese Datei aktualisieren, wenn Sie Standardeinstellungen ändern und eine erweiterte Konfiguration für Ihren Cluster verwenden möchten.
cluster_config.json
zu bearbeiten, können Sie Folgendes machen:
- Entweder Sie verwenden einen Linux-Texteditor, wie z. B. Vi oder GNU Nano, direkt auf der Linux-Maschine über SSH (z. B. mit dem Befehl:
vi cluster_config.json
); - Oder Sie nutzen Ihren bevorzugten Texteditor und kopieren dann die Datei auf die Maschine.
cluster_config.json
können Sie die UiPath-Produkte konfigurieren, die Sie bereitstellen möchten. Beachten Sie, dass Produkte Abhängigkeiten haben können. Weitere Informationen finden Sie unter Produktübergreifende Abhängigkeiten.
cluster_config.json
zu aktivieren oder zu deaktivieren, verwenden Sie true
oder false
für das Flag enabled
.
{
"fqdn": "PLACEHOLDER",
"cluster_fqdn": "PLACEHOLDER",
"fixed_rke_address": "PLACEHOLDER",
"admin_username": "PLACEHOLDER",
"admin_password": "PLACEHOLDER",
"rke_token": "PLACEHOLDER ",
"zone_resilience": false,
"registries": {
"docker": {
"url": "registry.uipath.com"
},
"helm": {
"url": "registry.uipath.com"
}
},
"sql_connection_string_template": "PLACEHOLDER",
"sql_connection_string_template_jdbc": "PLACEHOLDER",
"sql_connection_string_template_odbc": "PLACEHOLDER",
"sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
"orchestrator": {
"testautomation": {
"enabled": true
},
"updateserver": {
"enabled": true
},
"enabled": true
},
"infra": {
"docker_registry": {
"username": " PLACEHOLDER ",
"password": " PLACEHOLDER "
},
"pod_log_path": ""
},
"platform": {
"enabled": true
},
"automation_hub": {
"enabled": true
},
"automation_ops": {
"enabled": true
},
"action_center": {
"enabled": true
},
"aicenter": {
"enabled": true
},
"documentunderstanding": {
"enabled": true,
"datamanager": {}
},
"task_mining": {
"enabled": true
},
"apps": {
"enabled": true
},
"test_manager": {
"enabled": true
},
"insights": {
"enabled": true
},
"dataservice": {
"enabled": true
},
"asrobots": {
"enabled": true,
"packagecaching": true,
"packagecachefolder": "/uipath_asrobots_package_cache"
},
"processmining": {
"enabled": true
},
"external_object_storage": {
"enabled": false
},
"identity_certificate": {},
"profile": "ha",
"telemetry_optout": false,
"alternative_fqdn": "",
"server_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
},
"alternative_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
}
}
{
"fqdn": "PLACEHOLDER",
"cluster_fqdn": "PLACEHOLDER",
"fixed_rke_address": "PLACEHOLDER",
"admin_username": "PLACEHOLDER",
"admin_password": "PLACEHOLDER",
"rke_token": "PLACEHOLDER ",
"zone_resilience": false,
"registries": {
"docker": {
"url": "registry.uipath.com"
},
"helm": {
"url": "registry.uipath.com"
}
},
"sql_connection_string_template": "PLACEHOLDER",
"sql_connection_string_template_jdbc": "PLACEHOLDER",
"sql_connection_string_template_odbc": "PLACEHOLDER",
"sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
"orchestrator": {
"testautomation": {
"enabled": true
},
"updateserver": {
"enabled": true
},
"enabled": true
},
"infra": {
"docker_registry": {
"username": " PLACEHOLDER ",
"password": " PLACEHOLDER "
},
"pod_log_path": ""
},
"platform": {
"enabled": true
},
"automation_hub": {
"enabled": true
},
"automation_ops": {
"enabled": true
},
"action_center": {
"enabled": true
},
"aicenter": {
"enabled": true
},
"documentunderstanding": {
"enabled": true,
"datamanager": {}
},
"task_mining": {
"enabled": true
},
"apps": {
"enabled": true
},
"test_manager": {
"enabled": true
},
"insights": {
"enabled": true
},
"dataservice": {
"enabled": true
},
"asrobots": {
"enabled": true,
"packagecaching": true,
"packagecachefolder": "/uipath_asrobots_package_cache"
},
"processmining": {
"enabled": true
},
"external_object_storage": {
"enabled": false
},
"identity_certificate": {},
"profile": "ha",
"telemetry_optout": false,
"alternative_fqdn": "",
"server_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
},
"alternative_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
}
}
Obligatorische Parameter |
Beschreibung |
---|---|
|
Der Domänenname des Lastausgleichs (HA-fähiger Produktionsmodus mit mehreren Knoten) oder der Maschine (Auswertungsmodus mit einem einzelnen Knoten). |
|
Feste Adresse, die für die Lastausgleich-Knotenregistrierung und Kube API-Anforderungen verwendet wird. Dies sollte „fqdn“ sein, wenn der Lastausgleich wie empfohlen konfiguriert ist. Andernfalls FQDN des 1. Serverknotens. Weitere Informationen finden Sie unter Konfigurieren des Lastausgleichs. Kann die IP/der FQDN des ersten rke2-Servers in Ihrem Setup sein. |
|
Auf
true einstellen, wenn ein HA-fähiges Produktionsprofil mit mehreren Knoten ausgewählt wird. Der Wert dieses Flags wird automatisch vom interaktiven Installationsprogramm festgelegt. Er wird nur für interne Zwecke verwendet und darf nicht manuell geändert werden. |
|
Der Benutzername, den Sie als Administrator (z. B. Admin) für die Host-Organisation festlegen möchten. |
|
Das festzulegende Hostadministratorkennwort. |
|
Verwenden Sie hier einen neu generierten GUID. Dies ist ein vorab freigegebenes, Cluster-spezifisches Geheimnis. Er wird für alle Knoten benötigt, die dem Cluster beitreten. |
|
Legt das Profil der Installation fest. Die verfügbaren Profile sind:
Der Wert dieses Flags wird automatisch vom interaktiven Installationsprogramm festgelegt. Er wird nur für interne Zwecke verwendet und darf nicht manuell geändert werden. |
|
Der Benutzername, den Sie für die Docker-Registrierungsinstallation festlegen möchten. |
|
Das Kennwort, das Sie für die Docker-Registrierungsinstallation festlegen möchten. |
Optionale Parameter |
Beschreibung |
---|---|
|
true oder false – Wird verwendet, um das Senden der Telemetrie zurück an UiPath zu deaktivieren. Ist standardmäßig auf false festgelegt.
Wenn Sie die Option deaktivieren möchten, wählen Sie
true aus.
|
|
Ermöglicht es Ihnen, den
/var/log/pods -Standardpfad der Pod-Protokolle in einen benutzerdefinierten Pfad Ihrer Wahl zu ändern.
Hinweis:
Beim Aktualisieren des Protokollpfad s werden die Protokolle des vorhandenen Containers von
/var/log/pods verworfen.
|
Wenn zum Zeitpunkt der Installation kein Zertifikat bereitgestellt wird, erstellt das Installationsprogramm selbst ausgestellte Zertifikate und konfiguriert sie im Cluster.
Die Gültigkeit der selbstsignierten Zertifikate beträgt 90 Tage.
Einzelheiten zum Erlangen eines Zertifikats finden Sie unter:
pwd
aus, um den Pfad des Verzeichnisses abzurufen, in dem die Dateien gespeichert sind, und hängen Sie den Namen der Zertifikatsdatei an cluster_config.json
an.
In HA-fähigen Produktionsinstallationen mit mehreren Knoten ist ein Zertifikat nur auf dem ersten Knoten erforderlich.
Parameter |
Beschreibung |
---|---|
|
Der absolute Pfad zum Zertifikat der Zertifizierungsstelle. Diese Zertifizierungsstelle ist die Stelle, die das TLS-Zertifikat signiert. Ein Zertifizierungsstellenpaket darf nur die Kettenzertifikate enthalten, die zum Signieren des TLS-Zertifikats verwendet werden. Das Kettenlimit liegt bei neun Zertifikaten. Wenn Sie ein selbstsigniertes Zertifikat verwenden, müssen Sie den Pfad zum zuvor erstellen
rootCA.crt angeben. Lassen Sie das Feld leer, wenn Sie möchten, dass das Installationsprogramm das Zertifikat generiert.
|
|
Der absolute Pfad zum TLS-Zertifikat (
server.crt ist das selbstsignierte Zertifikat). Lassen Sie das Feld leer, wenn Sie möchten, dass das Installationsprogramm das Zertifikat generiert.
|
|
Der absolute Pfad zum Zertifikatsschlüssel (
server.key ist das selbstsignierte Zertifikat). Lassen Sie das Feld leer, wenn Sie möchten, dass das Installationsprogramm das Zertifikat generiert.
|
|
Der absolute Pfad zum Identitätstoken-Signaturzertifikat, das zum Signieren von Token verwendet wird (
identity.pfx ist das selbstsignierte Zertifikat). Lassen Sie das Feld leer, wenn das Installationsprogramm das Identitätszertifikat mithilfe des Serverzertifikats generieren soll.
|
|
Klartextkennwort, das beim Exportieren des Identitätstoken-Signaturzertifikats festgelegt wurde. |
|
Der absolute Pfad zu der Datei, die zusätzliche Zertifikate der Zertifizierungsstelle enthält, die von allen Diensten, die als Teil von Automation Suite ausgeführt werden, als vertrauenswürdig angesehen werden sollen. Alle Zertifikate in der Datei müssen im gültigen
PEM -Format vorliegen.
Sie müssen die Datei beispielsweise mit dem Zertifizierungsstellenzertifikat des SQL-Servers angeben, wenn das Zertifikat nicht von einer öffentlichen Zertifizierungsstelle ausgestellt wurde. |
Das interaktive Installationsprogramm erstellt automatisch Datenbanken mit dem folgenden Workflow:
-
Das interaktive Installationsskript überprüft den Wert des Parameters
sql.create_db
in der Dateicluster_config.json
.-
Wenn der Parameter
sql.create_db
auftrue
festgelegt ist, generiert das Installationsprogramm automatisch alle Datenbanken in Ihrem Namen. In diesem Fall verwendet das Installationsprogramm die standardmäßigen Datenbanknamen und Standardvorlagen und ignoriert alle benutzerdefinierten Datenbanknamen, die Sie angegeben haben.Weitere Informationen finden Sie unter Automatisches Erstellen der erforderlichen Datenbanken.
-
Wenn
sql.create_db
auffalse
festgelegt ist, müssen Sie Ihre eigenen Datenbanken mitbringen. In diesem Fall müssen Sie Ihre Datenbanken manuell einrichten. Beachten Sie, dass Sie benutzerdefinierte Datenbanknamen verwenden können, sofern Sie die angegebenen Namenskonventionen einhalten. Dieser Schritt ist kritisch, da wir den Datenbanknamen in Verbindung mit der Verbindungsvorlage verwenden, um die Datenbankverbindungszeichenfolge zu bilden. Wenn Sie die empfohlene Namenskonvention nicht einhalten, müssen Sie die SQL-Verbindungszeichenfolgen selbst angeben.Weitere Informationen finden Sie unter Mitbringen Ihrer eigenen Datenbanken.
-
-
Das interaktive Installationsprogramm generiert die Verbindungszeichenfolgen wie folgt:
-
Wenn Sie keine Verbindungszeichenfolge für Ihren Dienst definiert haben, verwendet das Installationsprogramm die Verbindungsvorlage, um alle Datenbankverbindungszeichenfolgen zu generieren.
-
Wenn Sie eine Verbindungszeichenfolge für Ihren Dienst definiert haben, verwendet das Installationsprogramm die bereitgestellte Verbindungszeichenfolge für Ihre Datenbank.
-
Wenn das Installationsprogramm die Datenbanken erstellen soll, füllen Sie die folgenden Felder der Datei cluster_config.json
aus:
Parameter |
Beschreibung |
---|---|
|
Legen Sie
true fest, damit das Installationsprogramm die Datenbanken erstellen kann. Beachten Sie, dass das Installationsprogramm die standardmäßigen Datenbanknamen und Standardvorlagen verwendet und alle von Ihnen angegebenen benutzerdefinierten Datenbanknamen ignoriert.
|
|
Der FQDN des SQL-Servers, auf dem das Installationsprogramm die Datenbank konfigurieren soll. |
|
Portnummer, auf der eine Datenbankinstanz auf dem SQL-Server gehostet werden soll. |
|
Der Benutzername/die UserID, um eine Verbindung mit dem SQL-Server herzustellen. |
|
Das Kennwort des zuvor angegebenen Benutzernamens, um eine Verbindung mit dem SQL-Server herzustellen. |
dbcreator
-Rolle verfügt. Dadurch erhalten sie die Berechtigung zum Erstellen der Datenbank im SQL-Server. Andernfalls schlägt die Installation fehl.
Die ODBC-Verbindung unterstützt keine Benutzernamen, die Sonderzeichen enthalten. Verwenden Sie bei Datenbankbenutzernamen für AI Center, Document Understanding und Apps nur Groß- und Kleinbuchstaben.
Wenn Sie eigene Datenbanken für eine neue Automation Suite-Installation einsetzen möchten, empfehlen wir dringend, neue Datenbanken einzurichten, anstatt vorhandene zu verwenden. Diese Vorsichtsmaßnahme ist notwendig, um Konflikte mit dem Betrieb der Automation Suite zu vermeiden, die aufgrund von übrig gebliebenen Metadaten aus alten Datenbanken auftreten können.
Wenn Sie Ihre eigene Datenbank mitbringen, müssen Sie die SQL-Verbindungszeichenfolgen für jede Datenbank angeben. Die Automation Suite unterstützt die folgenden Formate für SQL-Verbindungszeichenfolgen:
Parameter |
Beschreibung |
Produkte |
---|---|---|
|
Vollständige ADO.NET -Verbindungszeichenfolge, wobei der Katalogname auf DB_NAME_PLACEHOLDER festgelegt ist. Das Installationsprogramm ersetzt diesen Platzhalter durch die Standarddatenbanknamen für die installierten Suite-Dienste. |
Plattform, Orchestrator, Automation Suite Robots, Test Manager, Automation Hub, Automation Ops, Insights, Task Mining, Data Service, Process Mining, Document Understanding |
|
Vollständige JDBC -Verbindungszeichenfolge, wobei der Datenbankname auf DB_NAME_PLACEHOLDER festgelegt ist. Das Installationsprogramm ersetzt diesen Platzhalter durch die Standarddatenbanknamen für die installierten Suite-Dienste. |
AI Center 1 |
|
Vollständige ODBC-Verbindungszeichenfolge, bei der der Datenbankname auf DB_NAME_PLACEHOLDER festgelegt ist. Das Installationsprogramm ersetzt diesen Platzhalter durch die Standarddatenbanknamen für die installierten Suite-Dienste. |
Document Understanding, Apps |
|
Vollständige SQL-Alchemy PYODBC-Verbindungszeichenfolge, bei der der Datenbankname auf DB_NAME_PLACEHOLDER festgelegt ist. Das Installationsprogramm ersetzt diesen Platzhalter durch die Standarddatenbanknamen für die installierten Suite-Dienste. |
Process Mining |
sql_connection_string_template_jdbc
anhängen: encrypt=true;trustServerCertificate=false;fips=true;
.
db_securityadmin
und db_owner
für alle Automation Suite-Datenbanken erhält. Wenn die Sicherheitsbeschränkungen die Verwendung von db_owner
nicht zulassen, sollte das SQL-Konto über die folgenden Rollen und Berechtigungen für alle Datenbanken verfügen:
db_securityadmin
db_ddladmin
db_datawriter
db_datareader
- Berechtigung
EXECUTE
für das Schema „dbo“
db_securityadmin
und db_ddladmin
nur während der Installation oder wenn die Datenbanken erneut bereitgestellt werden, sodass Sie diese Berechtigung später widerrufen können.
db_owner
role to be assigned for a successful installation.
Wenn Sie die Verbindungszeichenfolgen manuell in der Konfigurationsdatei festlegen, können Sie SQL-, JDBC-, ODBC- oder PYODBC-Kennwörter wie folgt maskieren:
- für SQL: Fügen Sie
'
am Anfang und Ende des Kennworts hinzu und verdoppeln Sie alle anderen'
. - für JDBC/ODBC: Fügen Sie
{
am Anfang des Kennworts und}
am Ende hinzu, und verdoppeln Sie alle anderen}
. - Bei PYODBC:
username
undpassword
müssen URL-codiert werden, um Sonderzeichen zu berücksichtigen. Kennwörter der Document Understanding-Datenbank dürfen nicht mit{
beginnen.
AutomationSuite_ProcessMining_Airflow
-Datenbank für das Process Mining-Produkt muss READ_COMMITTED_SNAPSHOT
aktiviert sein.
TrustServerCertificate
auf False
festgelegt und Sie müssen ein zusätzliches Zertifizierungsstellenzertifikat für den SQL-Server bereitstellen. Dies ist erforderlich, wenn das SQL Server-Zertifikat selbstsigniert oder von einer internen Zertifizierungsstelle signiert wurde. Wenn Sie das SQL Server-Zertifikat in diesem Szenario nicht bereitstellen, schlägt die Voraussetzungsprüfung fehl.
Weitere Informationen finden Sie unter Zertifikatkonfiguration auf dieser Seite.
Beispiel: sql_connection_string_template
Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;
Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;
Beispiel: sql_connection_string_template_jdbc
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
Beispiel: sql_connection_string_template_odbc
SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"
SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"
Beispiel: sql_connection_string_template_sqlalchemy_pyodbc
mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
Beispiel: sql_connection_string_template und sql_connection_string_template_sqlalchemy_pyodbc (Process Mining)
"sql_connection_string_template": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
"sql_connection_string_template_sqlalchemy_pyodbc": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
"sql_connection_string_template": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
"sql_connection_string_template_sqlalchemy_pyodbc": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
Standardmäßige und optionale DB-Namen für die Automation Suite-Dienste
{
"orchestrator": "AutomationSuite_Orchestrator",
"orchestrator_ta": "AutomationSuite_Orchestrator",
"asrobots": "AutomationSuite_Orchestrator",
"orchestrator_upd": "AutomationSuite_Platform",
"platform": "AutomationSuite_Platform",
"test_manager": "AutomationSuite_Test_Manager",
"automation_ops": "AutomationSuite_Platform",
"automation_hub": "AutomationSuite_Automation_Hub",
"insights": "AutomationSuite_Insights",
"task_mining": "AutomationSuite_Task_Mining",
"dataservice": "AutomationSuite_DataService",
"aicenter": "AutomationSuite_AICenter",
"documentunderstanding": "AutomationSuite_DU_Datamanager",
"processmining_airflow": "AutomationSuite_Airflow",
"processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
"processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
"apps": "AutomationSuite_Apps",
}
{
"orchestrator": "AutomationSuite_Orchestrator",
"orchestrator_ta": "AutomationSuite_Orchestrator",
"asrobots": "AutomationSuite_Orchestrator",
"orchestrator_upd": "AutomationSuite_Platform",
"platform": "AutomationSuite_Platform",
"test_manager": "AutomationSuite_Test_Manager",
"automation_ops": "AutomationSuite_Platform",
"automation_hub": "AutomationSuite_Automation_Hub",
"insights": "AutomationSuite_Insights",
"task_mining": "AutomationSuite_Task_Mining",
"dataservice": "AutomationSuite_DataService",
"aicenter": "AutomationSuite_AICenter",
"documentunderstanding": "AutomationSuite_DU_Datamanager",
"processmining_airflow": "AutomationSuite_Airflow",
"processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
"processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
"apps": "AutomationSuite_Apps",
}
sql_connection_str
für den spezifischen Dienst fest.
Sie müssen diese Datenbanken weiterhin manuell erstellen, bevor Sie das Installationsprogramm ausführen.
Überschreiben der Standardverbindungszeichenfolge für Orchestrator und die Plattform
{
"orchestrator": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
},
"platform": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
}
}
{
"orchestrator": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
},
"platform": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
}
}
sql_connection_str
in den entsprechenden Produktblöcken fest. Die Verbindungszeichenfolge muss ein vom jeweiligen Produkt unterstütztes Format haben.
Beispiel zum Festlegen der Datenbankverbindungszeichenfolge für das AI Center
Parameter |
Beschreibung |
---|---|
|
AICenter JDBC-Verbindungszeichenfolge (Siehe unten für das JDBC-Format) |
"aicenter": {
"enabled": true,
"sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}
"aicenter": {
"enabled": true,
"sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}
Beispiel für die Document Understanding-Verbindungszeichenfolge
"documentUnderstanding": {
"datamanager": {
"sql_connection_str": "SERVER=sql-server.database.windows.net;DATABASE=datamanager;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=myPassword"
},
"sql_connection_str": "Server=tcp:database.example.com,1433;Initial Catalog=db;Persist Security Info=False;User Id=testadmin@example.com;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;",
"cjkOcr":
{
"enabled": true
}
}
"documentUnderstanding": {
"datamanager": {
"sql_connection_str": "SERVER=sql-server.database.windows.net;DATABASE=datamanager;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=myPassword"
},
"sql_connection_str": "Server=tcp:database.example.com,1433;Initial Catalog=db;Persist Security Info=False;User Id=testadmin@example.com;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;",
"cjkOcr":
{
"enabled": true
}
}
Die Handschrift ist für die Online-Installation immer aktiviert.
max_cpu_per-pod
ist 2
, Sie können ihn jedoch an Ihre Anforderungen anpassen.
Beispiel für die Process Mining-Verbindungszeichenfolge
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
sql_connection_string_template_sqlalchemy_pyodbc
der Vorlage und die PYODBC-Verbindungszeichenfolge sqlalchemy_pyodbc_sql_connection_str
, die Sie verwenden, wenn Sie Ihre eigene Datenbank mitbringen, unterschiedlich sind. Auch die Namen der Verbindungszeichenfolgen für die SQL-Vorlagen sql_connection_string_template
und sql_connection_str
, die verwendet werden, wenn Sie Ihre eigene Datenbank mitbringen, sind unterschiedlich.
sql_connection_str
und sqlalchemy_pyodbc_sql_connection_str
im Abschnitt processmining
der Datei cluster_config.json
konfiguriert haben, werden die Vorlagenverbindungszeichenfolgen sql_connection_string_template
und sql_connection_string_template_sqlalchemy_pyodbc
ignoriert, wenn angegeben.
MultiSubnetFailover=True
wird nicht unterstützt. Stellen Sie sicher, dass Sie MultiSubnetFailover=True
aus den Process Mining-Verbindungszeichenfolgen entfernen.
app_security_mode
wird entweder ein neuer SQL-Benutzer für jede Process Mining-App vom System erstellt (app_security_mode="system_managed"
) oder es wird ein einzelnes SQL-Benutzerkonto erstellt, das für alle Prozess-Apps verwendet wird (app_security_mode="single_account"
). Beachten Sie, dass app_security_mode="system_managed"
die Standardeinstellung ist und erweiterte Berechtigungen für den Datenbankbenutzer erfordert. Siehe Konfigurieren der Prozess-App-Sicherheit.
Beispiel für die Process Mining-Verbindungszeichenfolge
-
Szenario: Einrichtung mit Kerberos-Authentifizierung.
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes"
},
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes"
},
Beispiel für die Process Mining-Verbindungszeichenfolge
-
Szenario: Metadatendatenbank und Data Warehouse verwenden separaten SQL-Server (Authentifizierung ohne Kerberos).
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration1.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration2.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:uipath-integration2.database.windows.net,1433;Initial Catalog=AutomationSuite_Airflow;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration1.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration2.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:uipath-integration2.database.windows.net,1433;Initial Catalog=AutomationSuite_Airflow;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
Beispiel für die Process Mining-Verbindungszeichenfolge
-
Szenario: Verwenden eines benutzerdefinierten
app_security_mode
.
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=YES"
},
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=YES"
},
Mit der Automation Suite können Sie Ihren eigenen externen Speicheranbieter mitbringen. Sie können aus den folgenden Speicheranbietern wählen:
- Azure
- AWS
- S3-kompatibel
Sie können den externen Objektspeicher auf eine der folgenden Arten konfigurieren:
- Während der Installation mit dem interaktiven Installationsprogramm;
- Nach der Installation mithilfe der Datei
cluster_config.json
.
- Damit die Automation Suite ordnungsgemäß funktioniert, wenn vorsignierte URLs verwendet werden, müssen Sie sicherstellen, dass der Automation Suite-Cluster, Browser und alle Ihre Maschinen, einschließlich Workstations und Robotermaschinen, auf Ihren externen Objektspeicher zugreifen können.
-
Die serverseitige Verschlüsselung mit dem Schlüsselverwaltungsdienst (SSE-KMS) kann nur für die Automation Suite-Buckets aktiviert werden, die in einer Region bereitgestellt werden, die nach dem 30. Januar 2014 erstellt wurde.
Die SSE-KMS-Funktionalität erfordert unveränderte SignV4-APIs. Regionen, die vor dem 30. Januar 2014 erstellt wurden, verwenden aufgrund der Abwärtskompatibilität mit SignV2 keine unveränderten SignV4-APIs. Daher funktioniert SSE-KMS nur in Regionen, die SignV4 für die Kommunikation verwenden. Informationen zur Bereitstellung der verschiedenen Regionen finden Sie in der AWS-Dokumentation.
cluster_config.json
-Parameter aufgeführt, die Sie zum Konfigurieren der einzelnen Anbieter von externem Objektspeicher verwenden können:
Parameter |
Azure |
AWS |
S3-kompatibel |
Beschreibung |
---|---|---|---|---|
|
|
|
|
Geben Sie an, ob Sie Ihren eigenen Objektspeicher mitbringen möchten. Mögliche Werte:
true und false .
|
|
|
|
|
Geben Sie an, ob Sie den Bucket bereitstellen möchten. Mögliche Werte:
true und false .
|
|
|
|
|
Geben Sie den Speicheranbieter an, den Sie konfigurieren möchten. Beim Wert wird die Groß-/Kleinschreibung beachtet. Mögliche Werte:
azure und s3 .
Hinweis: Viele S3-Objektspeicher erfordern, dass CORS auf den gesamten Datenverkehr aus dem Automation Suite-Cluster festgelegt ist.Sie müssen die CORS-Richtlinie auf Objectstore-Ebene konfigurieren, um den FQDN des Clusters zuzulassen.
|
|
|
|
|
Geben Sie den FQDN des S3-Servers an. Erforderlich bei den AWS-Instanz- und Nicht-Instanzprofilen. |
|
|
|
|
Geben Sie den S3-Port an. Erforderlich bei den AWS-Instanz- und Nicht-Instanzprofilen. |
|
|
|
|
Geben Sie die AWS-Region an, in der Buckets gehostet werden. Erforderlich bei den AWS-Instanz- und Nicht-Instanzprofilen. |
|
|
|
|
Geben Sie den Zugriffsschlüssel für das S3-Konto an. Nur erforderlich im Fall des AWS-Nicht-Instanzprofils. |
|
|
|
|
Geben Sie den geheimen Schlüssel für das S3-Konto an. Nur erforderlich im Fall des AWS-Nicht-Instanzprofils. |
|
|
|
|
Geben Sie an, ob Sie ein Instanzprofil verwenden möchten. Ein AWS Identity and Access Management(IAM)-Instanzprofil gewährt sicheren Zugriff auf AWS-Ressourcen für Anwendungen oder Dienste, die auf Amazon Elastic Compute Cloud(EC2)-Instanzen ausgeführt werden. Wenn Sie sich für AWS S3 entscheiden, ermöglicht ein Instanzprofil einer EC2-Instanz die Interaktion mit S3-Buckets, ohne dass explizite AWS-Anmeldeinformationen (z. B. Zugriffsschlüssel) auf der Instanz gespeichert werden müssen. |
|
|
|
|
Verwenden Sie die verwaltete Identität mit Ihrem Azure-Speicherkonto. Mögliche Werte:
true und false .
|
external_object_storage.bucket_name_prefix 1 |
|
|
|
Geben Sie das Präfix für die Bucket-Namen an. Im Falle des AWS Nicht-Instanzprofils optional. |
external_object_storage.bucket_name_suffix 2 |
|
|
|
Geben Sie das Suffix für die Bucket-Namen an. Im Falle des AWS Nicht-Instanzprofils optional. |
|
|
|
|
Geben Sie den Azure-Kontoschlüssel an. Nur erforderlich bei Verwendung einer nicht verwalteten Identität. |
|
|
|
|
Geben Sie den Namen des Azure-Kontos an. |
|
|
|
|
Geben Sie das Azure-FQDN-Suffix an. Optionaler Parameter. |
|
|
|
|
Geben Sie Ihre Azure Client-ID an. Nur erforderlich, wenn eine verwaltete Identität verwendet wird. |
bucket_name_prefix
als auch für bucket_name_suffix
befolgen. Darüber hinaus dürfen Suffix und Präfix eine kombinierte Länge von nicht mehr als 25 Zeichen haben und Sie dürfen das Präfix nicht mit einem Bindestrich (-
) beenden oder das Suffix damit beginnen, da wir das Zeichen bereits automatisch für Sie hinzufügen.
Sie können die im Abschnitt Allgemeine Konfiguration beschriebenen Parameter verwenden, um die allgemeine Automation Suite-Konfiguration zu aktualisieren. Das bedeutet, dass alle installierten Produkte dieselbe Konfiguration verwenden würden. Wenn Sie ein oder mehrere Produkte anders konfigurieren möchten, können Sie die allgemeine Konfiguration überschreiben. Sie müssen nur die Produkte angeben, für die Sie den externen Objektspeicher einrichten möchten, und dieselben Parameter verwenden, um Ihre Konfiguration zu definieren. Beachten Sie, dass alle anderen installierten Produkte weiterhin die allgemeine Konfiguration übernehmen würden.
Das folgende Beispiel zeigt, wie Sie die allgemeine Konfiguration für den Orchestrator überschreiben können:
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure,aws>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
},
"orchestrator": {
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
}
}
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure,aws>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
},
"orchestrator": {
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
}
}
Um die Anmeldeinformationen im Blob-Speicher für Process Mining in der Automation Suite zu ändern, müssen die gespeicherten Geheimnisse mit den neuen Anmeldeinformationen aktualisiert werden. Siehe Rotierende Anmeldeinformationen im Blob-Speicher.
- Einige Automation Suite-Produkte werden in Disaster Recovery – Aktiv/Passiv nicht unterstützt. Sie können diese Produkte nur während der Installation des primären Clusters installieren.
- Nachdem Sie dem Installationsprogramm alle Parameter für Ihr Setup zur Verfügung gestellt haben, werden Sie vom Installationsprogramm aufgefordert, fortzufahren oder den Vorgang zu beenden. Sie müssen das Installationsprogramm beenden, um die generierte
cluster_config.json
mit den erweiterten Parametern für mehrere Sites zu ändern.
Sie müssen die beiden Automation Suite-Cluster separat installieren.
cluster_config.json
-Parameter aufgeführt, die Sie verwenden müssen, um sowohl den primären als auch den sekundären Cluster zu installieren:
Parameter |
Beschreibung |
---|---|
|
Zeigt an, dass HAA aktiviert ist. Dies ist erforderlich, um Redis im HA-Modus zu ermöglichen. Dies ist obligatorisch und muss auf
true festgelegt sein.
|
|
Gibt die Redis-Lizenz (HAA) an. Der Wert ist obligatorisch und muss ein gültiger Base64-codierter String sein. |
|
Hier wird der FQDN des Lastausgleichs des Clusters angegeben. Es ist ein obligatorischer Wert. |
|
Gibt an, dass Automation Suite für die Arbeit an mehreren Sites konfiguriert werden muss. Muss auf
true festgelegt sein.
|
|
Gibt an, dass dieser Cluster ein primärer Cluster ist und auf
true festgelegt werden muss. Standardmäßig wird false verwendet, um den sekundären Cluster anzugeben.
|
|
Er gibt die Base64-codierte kubeconfig-Datei eines anderen Clusters an. Während der Installation des primären Automation Suite-Clusters ist dieser Wert nicht verfügbar und kann so belassen werden. Sie müssen den Wert jedoch angeben, wenn Sie die primäre Automation Suite später während der Wiederherstellung neu erstellen. |
|
Er gibt die Adresse an, an die alle Anforderungen zur Knotenverbindung gestellt werden müssen. Dies ist in der Regel dasselbe wie der Wert
cluster_fqdn (der FQDN des Lastausgleichs).
|
{
"fabric": {
"redis": {
"ha": true,
"license": "xyz" //base64 encoded redis license
}
},
"cluster_fqdn": "automationsuite-primary.mycompany.com",
"multisite": {
"enabled": true,
"primary": true,
"other_kube_config": xxx, //another cluster kubeconfig
},
"fixed_rke_address": "automationsuite-primary.mycompany.com"
}
{
"fabric": {
"redis": {
"ha": true,
"license": "xyz" //base64 encoded redis license
}
},
"cluster_fqdn": "automationsuite-primary.mycompany.com",
"multisite": {
"enabled": true,
"primary": true,
"other_kube_config": xxx, //another cluster kubeconfig
},
"fixed_rke_address": "automationsuite-primary.mycompany.com"
}
cluster_config.json
-Datei:
Parameter |
Beschreibung |
---|---|
|
Geben Sie die externen Docker-Registrierungen an, die Sie verwenden möchten. |
|
Die Registrierungs-URL. |
|
Der Registrierungsbenutzername für die Anmeldung. |
| Das Registrierungskennwort für die Anmeldung. |
|
Das Pull-Geheimnis der Registrierung. |
pull_secret_value
zu generieren, einschließlich derer, die Docker verwenden. Weitere Informationen finden Sie unter So generieren Sie den codierten pull_secret_value für externe Registrierungen.
Konfigurationsbeispiel:
{
"registries": {
"docker": {
"url": "registry.domain.io",
"username": "username",
"password": "password",
"pull_secret_value": "pull-secret-value"
},
"helm": {
"url": "registry.domain.io",
"username": "username",
"password": "password"
}
},
}
{
"registries": {
"docker": {
"url": "registry.domain.io",
"username": "username",
"password": "password",
"pull_secret_value": "pull-secret-value"
},
"helm": {
"url": "registry.domain.io",
"username": "username",
"password": "password"
}
},
}
orchestrator.block_classic_executions
in der cluster_config.json
-Datei auf true
festlegen. Die Verwendung des Flags zeigt, dass Sie mit dem Blockieren klassischer Ordnerausführungen einverstanden sind. Wenn das Flag in diesem Szenario nicht verwendet wird, schlägt der Upgradevorgang fehl. Dieser Parameter ist bei Neuinstallationen nicht erforderlich.
orchestrator.orchestrator_robot_logs_elastic
konfigurieren. Wenn nicht angegeben, werden Roboterprotokolle in der Orchestrator-Datenbank gespeichert.
orchestrator.orchestrator_robot_logs_elastic
-Parameter aufgeführt:
Parameter |
Beschreibung |
---|---|
orchestrator_robot_logs_elastic |
Elasticsearch-Konfiguration. |
|
Die Adresse der Elasticsearch-Instanz, die verwendet werden soll. Sie muss in Form eines URI bereitgestellt werden. Wenn angegeben, sind auch Benutzername und Kennwort erforderlich. |
|
Der Elasticsearch-Benutzername, der für die Authentifizierung verwendet wird. |
|
Das Elasticsearch-Kennwort, das für die Authentifizierung verwendet wird. |
Beispiel
"orchestrator": {
"enabled": true,
"block_classic_executions": true,
"orchestrator_robot_logs_elastic": {
"elastic_uri": "https://elastic.example.com:9200",
"elastic_auth_username": "elastic-user",
"elastic_auth_password": "elastic-password"
}
}
"orchestrator": {
"enabled": true,
"block_classic_executions": true,
"orchestrator_robot_logs_elastic": {
"elastic_uri": "https://elastic.example.com:9200",
"elastic_auth_username": "elastic-user",
"elastic_auth_password": "elastic-password"
}
}
Wenn sie Insights aktivieren, können Benutzer die SMTP-Serverkonfiguration einschließen, die zum Senden geplanter E-Mails/Warnungs-E-Mails verwendet wird. Wenn sie fehlt, funktionieren die geplanten E-Mails und die Warnungs-E-Mails nicht.
insights.smtp_configuration
-Feldern:
Parameter |
Beschreibung |
---|---|
|
Gültige Namen:
TLSv1_2 , TLSv1_1 , SSLv23 . Lassen Sie den Schlüssel ganz weg, wenn Sie TLS nicht verwenden.
|
|
Adresse, von der Warnungs-/Termin-E-Mails gesendet werden. |
|
Hostname des SMTP-Servers. |
|
Der Port des SMTP-Servers. |
|
Benutzername für die SMTP-Serverauthentifizierung. |
|
Kennwort für die SMTP-Serverauthentifizierung. |
enable_realtime_monitoring | Flag, um die Insights-Echtzeitüberwachung zu aktivieren. Gültige Werte sind true und false . Der Standardwert ist false .
|
Beispiel
"insights": {
"enabled": true,
"enable_realtime_monitoring": true,
"smtp_configuration": {
"tls_version": "TLSv1_2",
"from_email": "test@test.com",
"host": "smtp.sendgrid.com",
"port": 587,
"username": "login",
"password": "password123"
}
}
"insights": {
"enabled": true,
"enable_realtime_monitoring": true,
"smtp_configuration": {
"tls_version": "TLSv1_2",
"from_email": "test@test.com",
"host": "smtp.sendgrid.com",
"port": 587,
"username": "login",
"password": "password123"
}
}
processmining
konfiguriert werden:
Parameter |
Beschreibung |
---|---|
|
DotNet-formatierte Verbindungszeichenfolge mit Datenbank als Platzhalter:
Initial Catalog=DB_NAME_PLACEHOLDER .
|
|
Sqlalchemy PYODBC-formatierte Verbindungszeichenfolge für die benutzerdefinierte Airflow-Metadaten-Datenbank:
sqlServer:1433/DB_NAME_PLACEHOLDER .
Beispiel:
Wo Benutzer:
testadmin%40myhost Hinweis:
Wenn „@“ im Benutzernamen vorhanden ist, muss er auf %40 URL-codiert werden Beispiel: (SQL Server-Setup mit Kerberos-Authentifizierung)
|
|
DotNet-formatierte SQL-Verbindungszeichenfolge zum Processmining Data Warehouse SQL-Server mit Platzhalter für dbname: Initial Catalog=DB_NAME_PLACEHOLDER .
|
|
Sqlalchemy PYODBC-formatierte SQL-Verbindungszeichenfolge zum Processmining-Data-Warehouse-SQL-Server mit Platzhalter für Datenbankname: sqlServer:1433/DB_NAME_PLACEHOLDER .
|
|
Wenn das Installationsprogramm Datenbanken über die Einstellung
sql.create_db: true erstellt, muss eine DotNet-formatierte Master SQL-Verbindungszeichenfolge für den Process Mining Data Warehouse SQL-Server bereitgestellt werden. Eine Datenbank in der Verbindungszeichenfolge muss als master festgelegt werden.
|
Beispiel für die Process Mining-Verbindungszeichenfolge
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"warehouse": {
"sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"blob_storage_account_use_presigned_uri": true
},
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"warehouse": {
"sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"blob_storage_account_use_presigned_uri": true
},
Stellen Sie beim Einrichten von Microsoft SQL Server sicher, dass die Zeitzone der SQL Server-Maschine, auf der die Airflow-Datenbank und eine dedizierte Process Mining-Datenbank installiert sind, auf UTC festgelegt ist.
Beim Konfigurieren der Verbindungszeichenfolgen für den Process Mining Data Warehouse SQL-Server sollte die benannte Instanz des SQL-Servers weggelassen werden.
Benannte Instanzen von SQL Server können nicht auf demselben TCP-Port ausgeführt werden. Daher reicht die Portnummer allein aus, um zwischen Instanzen zu unterscheiden.
tcp:server,1445
anstelle von tcp:server\namedinstance,1445
.
sql_connection_string_template_sqlalchemy_pyodbc
der Vorlage und die PYODBC-Verbindungszeichenfolge sqlalchemy_pyodbc_sql_connection_str
, die Sie verwenden, wenn Sie Ihre eigene Datenbank mitbringen, unterschiedlich sind. Auch die Namen der Verbindungszeichenfolgen für die SQL-Vorlagen sql_connection_string_template
und sql_connection_str
, die verwendet werden, wenn Sie Ihre eigene Datenbank mitbringen, sind unterschiedlich.
sql_connection_str
und sqlalchemy_pyodbc_sql_connection_str
im Abschnitt processmining
der Datei cluster_config.json
konfiguriert haben, werden die Vorlagenverbindungszeichenfolgen sql_connection_string_template
und sql_connection_string_template_sqlalchemy_pyodbc
ignoriert, wenn angegeben.
1433
für die folgenden Datenbanken verwenden:
warehouse.sql_connection_str
warehouse.sqlalchemy_pyodbc_sql_connection_str
warehouse.master_sql_connection_str
Nicht standardmäßige SQL-Serverports werden nicht unterstützt.
Automation Suite-Roboter können die Paketzwischenspeicherung verwenden, um Ihre Prozessausführungen zu optimieren und schneller auszuführen. NuGet-Pakete werden aus dem Dateisystem abgerufen, anstatt aus dem Internet/Netzwerk heruntergeladen zu werden. Dies erfordert einen zusätzlichen Speicherplatz von mindestens 10 GiB und sollte einem Ordner im Dateisystem der Hostmaschine der dedizierten Knoten zugewiesen werden.
cluster_config.json
-Parameter aktualisieren:
Parameter |
Standardwert |
Beschreibung |
---|---|---|
|
|
Wenn auf
true festgelegt, verwenden Roboter einen lokalen Cache für die Paketauflösung.
|
|
|
Der Speicherort auf dem serverlosen Agent-Knoten, auf dem die Pakete gespeichert sind. |
aicenter.external_object_storage.port
und aicenter.external_object_storage.fqdn
in der Datei cluster_config.json
konfigurieren.
aicenter
der Datei cluster_config.json
konfigurieren, auch wenn Sie den Abschnitt external_object_storage
der Datei konfiguriert haben.
cluster_config.json
-Konfiguration für das AI Center:"aicenter": {
"external_object_storage" {
"port": 443,
"fqdn": "s3.us-west-2.amazonaws.com"
}
},
"external_object_storage": {
"enabled": true,
"create_bucket": false,
"storage_type": "s3",
"region": "us-west-2",
"use_instance_profile": true
}
...
"aicenter": {
"external_object_storage" {
"port": 443,
"fqdn": "s3.us-west-2.amazonaws.com"
}
},
"external_object_storage": {
"enabled": true,
"create_bucket": false,
"storage_type": "s3",
"region": "us-west-2",
"use_instance_profile": true
}
...
Um genügend Ressourcen für die Überwachung bereitzustellen (siehe Verwenden des Überwachungs-Stacks), sollten Sie die Anzahl der vCPUs im Cluster und den Umfang der gewünschten Metrikspeicherung berücksichtigen. Im Folgenden erfahren Sie, wie Sie die folgenden Konfigurationen der Überwachungsressourcen einstellen können.
In der folgenden Tabelle werden die Details des Überwachungsfelds beschrieben:
Parameter |
Beschreibung |
---|---|
|
In Tagen. Dies ist die Anzahl von Tagen, die die Metriken zum Zweck der Visualisierung in Grafana und der manuellen Abfrage über die Prometheus-Konsole gespeichert werden. Der Standardwert ist
7 .
|
|
In GiB. Menge des zu reservierenden Speicherplatzes pro Prometheus-Replikat. Eine gute Faustregel ist es, diesen Wert festzulegen auf:
Beispiel: Wenn Sie
prometheus_retention auf 14 Tage festlegen und Ihr Cluster über 80 Kerne verfügt, die auf 5 Maschinen verteilt sind, wird dies zu:
Der Standardwert ist
45 und darf nicht niedriger angesetzt werden.
Wird der Speicherplatz in Prometheus knapp, dann wird eine Warnung mit spezifischen Anweisungen zur Behebung des Problems ausgelöst. Siehe hier. |
|
In MiB. Die Speichermenge, auf die jedes Prometheus-Replikat begrenzt werden soll. Eine gute Faustregel ist es, diesen Wert festzulegen auf:
Beispiel: Wenn Sie
prometheus_retention auf 14 Tage festgelegt haben und Ihr Cluster über 80 Kerne verfügt, die auf 5 Maschinen verteilt sind, wird dies zu:
Der Standardwert für den Auswertungsmodus mit einem Knoten ist
3200 , für den HA-fähigen Produktionsmodus mit mehreren Knoten ist der Standardwert 6000 ; dieser darf nicht niedriger angesetzt werden.
Wird der Arbeitsspeicher in Prometheus knapp, dann wird eine Warnung mit spezifischen Anweisungen zur Behebung des Problems ausgelöst. Siehe hier. |
Beispiel
"monitoring": {
"prometheus_retention": 14,
"prometheus_memory_limit": 16000,
"prometheus_storage_size": 104
}
"monitoring": {
"prometheus_retention": 14,
"prometheus_memory_limit": 16000,
"prometheus_storage_size": 104
}
Stellen Sie sicher, dass Sie die Proxyserveranforderungen erfüllen, bevor Sie den Proxyserver während der Installation konfigurieren.
Weitere Informationen finden Sie unter Schritt 2: Hinzufügen der Proxykonfiguration zu jedem Knoten.
cluster_config.json
während des erweiterten Konfigurationsschritts aktualisieren.
Sie müssen mit vim oder Ihrem bevorzugten Editor für die Konfigurationsdatei Folgendes in die Konfigurationsdatei einfügen:
"proxy": {
"enabled": true,
"http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}
"proxy": {
"enabled": true,
"http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}
Obligatorische Parameter |
Beschreibung |
---|---|
|
Verwenden Sie
true oder false , um die Proxyeinstellungen zu aktivieren oder zu deaktivieren.
|
|
Wird zum Weiterleiten von ausgehenden HTTP-Anfragen aus dem Cluster verwendet. Dies muss der FQDN und Port des Proxyservers sein. |
|
Wird zum Weiterleiten von ausgehenden HTTPS-Anfragen aus dem Cluster verwendet. Dies muss der FQDN und Port des Proxyservers sein. |
|
Eine kommagetrennte Liste von Hosts, IP-Adressen oder IP-Bereichen im CIDR-Format, die Sie nicht über den Proxyserver weiterleiten möchten. Dies muss ein privater Subnetzbereich, ein SQL Server-Host, eine benannte Serveradresse und eine Metadatenserveradresse sein:
*.<fqdn>,<fixed_rke_address>:9345,<fixed_rke2_address>:6443 .
Wichtig:
Wenn Sie das AI Center mit einem externen Orchestrator verwenden, müssen Sie die externe Orchestrator-Domäne zur Liste
no_proxy hinzufügen.
|
Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
Um Widerstandsfähigkeit gegen zonale Ausfälle in einem Cluster mit mehreren Knoten zu ermöglichen, führen Sie die folgenden Schritte aus:
cluster_config.json
mithilfe des interaktiven Installationsassistenten zu aktualisieren, beenden Sie den erweiterten Konfigurationsschritt und fügen Sie Folgendes mithilfe von vim oder Ihrem bevorzugten Editor zur Konfigurationsdatei hinzu:
"zone_resilience": true
"zone_resilience": true
Obligatorische Parameter |
Beschreibung |
---|---|
|
Verwenden Sie
true oder false zum Aktivieren oder Deaktivieren der Widerstandsfähigkeit gegenüber zonalen Ausfällen.
|
--zone
und --region
:
- empfohlen, wenn Sie Ihre Maschinen in AWS, Azure oder GCP bereitstellen und Metadatendienste aktiviert sind, während das Installationsprogramm die Zonen- und Regionsdetails ausfüllt.
- obligatorisch, wenn Sie Ihre Maschinen auf AWS, Azure oder GCP bereitstellen und Metadatendienste deaktiviert sind oder wenn Sie sich für einen anderen Cloud-Anbieter entscheiden.
/etc/resolv.conf
konfigurierten Nameserver. Kubernetes funktioniert nicht mit lokalen DNS-Resolvern (127.0.0.1 oder 127.0.0.0/8). Wenn Sie solche Nameserver in der /etc/resolv.conf
-Datei konfiguriert haben, müssen Sie daher einen Dateiverweis mit den richtigen Nameserver-Einträgen übergeben, auf die von jeder Stelle der VM im Parameter .infra.custom_dns_resolver
in cluster_config.json
zugegriffen werden kann.
Weitere Details zu einer bekannten Einschränkung finden Sie in der Kubernetes-Dokumentation.
Optionale Parameter |
Beschreibung |
---|---|
|
Pfad zur Datei mit korrekten Nameserver-Einträgen, auf die von einer beliebigen Stelle der VM zugegriffen werden kann. Diese Nameserver-Einträge dürfen nicht aus
127.0.0.0/8 sein.
|
fault_tolerance
in der Datei cluster_config.json
verwenden. Der Parameter verändert den Replikationsfaktor von Speicherkomponenten innerhalb des Clusters, wie Ceph und Longhorn.
1
hinaus zu erhöhen, stellen Sie sicher, dass Ihre Umgebung die folgenden Anforderungen erfüllt:
- Ihr Cluster besteht aus mindestens
2x+1
Serverknoten, wobeix
die erforderliche Fehlertoleranz des Serverknotens ist; - Für jeden Serverknoten ist ein Raw-Gerät konfiguriert.
1
hinaus zu erhöhen, führen Sie die folgenden Schritte aus:
- Legen Sie
fault_tolerance
auf den erforderlichen Wert in dercluster_config.json
-Datei fest. Wenn Sie diese Einstellung vor Beginn der Installation oder des Upgrades vornehmen, müssen Sie keine weiteren Schritte unternehmen. - Führen Sie das Installationsprogramm
uipathctl.sh
aus, um den Replikationsfaktor des Ceph-Objektspeichers im Cluster zu ändern. Warten Sie, bis der Vorgang erfolgreich abgeschlossen wurde. - Führen Sie das Installationsprogramm
install-uipath.sh
aus, um den Replikationsfaktor der Longhorn-Volumes zu ändern. Warten Sie, bis der Vorgang erfolgreich abgeschlossen wurde.
- Cluster_config.json-Beispiel
- Allgemeine Konfiguration
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Workflow zur Datenbankerstellung
- Automatisches Erstellen der erforderlichen Datenbanken
- Mitbringen Ihrer eigenen Datenbank
- Konfiguration des externen Objektspeichers
- Allgemeine Konfiguration
- Produktspezifische Konfiguration
- Rotieren der Anmeldeinformationen im Blob-Speicher für Process Mining
- Disaster Recovery: Aktiv-/Passiv-Konfiguration
- Konfiguration der externen Docker-Registrierung
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Automation Suite Robots
- AI Center-spezifische Konfiguration
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- Hardwareanforderungen
- So erhöhen Sie die Fehlertoleranz