automation-suite
2022.10
false
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde.
UiPath logo, featuring letters U and I in white
Automation Suite-Installationsanleitung
Last updated 4. Nov. 2024

Anleitung: Erweiterte Installation

Die Datei cluster_config.json definiert die Parameter, Einstellungen und Präferenzen, die auf die über die Automation Suite bereitgestellten UiPath-Produkte angewendet werden. Sie müssen diese Datei aktualisieren, wenn Sie Standardeinstellungen ändern und eine erweiterte Konfiguration für Ihren Cluster verwenden möchten.
Um die cluster_config.json zu bearbeiten, können Sie Folgendes machen:
  • Entweder Sie verwenden einen Linux-Texteditor, wie z. B. Vi oder GNU Nano, direkt auf der Linux-Maschine über SSH (z. B. mit dem Befehl: vi cluster_config.json);
  • Oder Sie nutzen Ihren bevorzugten Texteditor und kopieren dann die Datei auf die Maschine.
Mit der Datei cluster_config.json können Sie die UiPath-Produkte konfigurieren, die Sie bereitstellen möchten. Beachten Sie, dass Produkte Abhängigkeiten haben können. Weitere Informationen finden Sie unter Produktübergreifende Abhängigkeiten.
Um einen Dienst über die Datei cluster_config.json zu aktivieren oder zu deaktivieren, verwenden Sie true oder false für das Flag enabled.

Cluster_config.json-Beispiel

{
  "fqdn": "PLACEHOLDER",
  "cluster_fqdn": "PLACEHOLDER",
  "fixed_rke_address": "PLACEHOLDER",
  "admin_username": "PLACEHOLDER",
  "admin_password": "PLACEHOLDER",
  "rke_token": "PLACEHOLDER ",
  "zone_resilience": false,
  "registries": {
    "docker": {
      "url": "registry.uipath.com"
    },
    "helm": {
      "url": "registry.uipath.com"
    }
  },
  "sql_connection_string_template": "PLACEHOLDER",
  "sql_connection_string_template_jdbc": "PLACEHOLDER",
  "sql_connection_string_template_odbc": "PLACEHOLDER",
  "sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
  "orchestrator": {
    "testautomation": {
      "enabled": true
    },
    "updateserver": {
      "enabled": true
    },
    "enabled": true
  },
  "infra": {
    "docker_registry": {
      "username": " PLACEHOLDER ",
      "password": " PLACEHOLDER "
   },  
     "pod_log_path": ""
  },
  "platform": {
    "enabled": true
  },
  "automation_hub": {
    "enabled": true
  },
  "automation_ops": {
    "enabled": true
  },
  "action_center": {
    "enabled": true
  },
  "aicenter": {
    "enabled": true
  },
  "documentunderstanding": {
    "enabled": true,
    "datamanager": {}
  },
  "task_mining": {
    "enabled": true
  },
  "apps": {
    "enabled": true
  },
  "test_manager": {
    "enabled": true
  },
  "insights": {
    "enabled": true
  },
  "dataservice": {
    "enabled": true
  },
  "asrobots": {
    "enabled": true,
    "packagecaching": true,
    "packagecachefolder": "/uipath_asrobots_package_cache"
  },
  "processmining": {
    "enabled": true
  },
  "external_object_storage": {
    "enabled": false
  },
  "identity_certificate": {},
  "profile": "ha",
  "telemetry_optout": false,
  "alternative_fqdn": "",
  "server_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
  },
  "alternative_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
  }
}{
  "fqdn": "PLACEHOLDER",
  "cluster_fqdn": "PLACEHOLDER",
  "fixed_rke_address": "PLACEHOLDER",
  "admin_username": "PLACEHOLDER",
  "admin_password": "PLACEHOLDER",
  "rke_token": "PLACEHOLDER ",
  "zone_resilience": false,
  "registries": {
    "docker": {
      "url": "registry.uipath.com"
    },
    "helm": {
      "url": "registry.uipath.com"
    }
  },
  "sql_connection_string_template": "PLACEHOLDER",
  "sql_connection_string_template_jdbc": "PLACEHOLDER",
  "sql_connection_string_template_odbc": "PLACEHOLDER",
  "sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
  "orchestrator": {
    "testautomation": {
      "enabled": true
    },
    "updateserver": {
      "enabled": true
    },
    "enabled": true
  },
  "infra": {
    "docker_registry": {
      "username": " PLACEHOLDER ",
      "password": " PLACEHOLDER "
   },  
     "pod_log_path": ""
  },
  "platform": {
    "enabled": true
  },
  "automation_hub": {
    "enabled": true
  },
  "automation_ops": {
    "enabled": true
  },
  "action_center": {
    "enabled": true
  },
  "aicenter": {
    "enabled": true
  },
  "documentunderstanding": {
    "enabled": true,
    "datamanager": {}
  },
  "task_mining": {
    "enabled": true
  },
  "apps": {
    "enabled": true
  },
  "test_manager": {
    "enabled": true
  },
  "insights": {
    "enabled": true
  },
  "dataservice": {
    "enabled": true
  },
  "asrobots": {
    "enabled": true,
    "packagecaching": true,
    "packagecachefolder": "/uipath_asrobots_package_cache"
  },
  "processmining": {
    "enabled": true
  },
  "external_object_storage": {
    "enabled": false
  },
  "identity_certificate": {},
  "profile": "ha",
  "telemetry_optout": false,
  "alternative_fqdn": "",
  "server_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
  },
  "alternative_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
  }
}

Allgemeine Konfiguration

Obligatorische Parameter

Beschreibung

fqdn

Der Domänenname des Lastausgleichs (HA-fähiger Produktionsmodus mit mehreren Knoten) oder der Maschine (Auswertungsmodus mit einem einzelnen Knoten).

fixed_rke_address

Feste Adresse, die für die Lastausgleich-Knotenregistrierung und Kube API-Anforderungen verwendet wird. Dies sollte „fqdn“ sein, wenn der Lastausgleich wie empfohlen konfiguriert ist. Andernfalls FQDN des 1. Serverknotens. Weitere Informationen finden Sie unter Konfigurieren des Lastausgleichs.

Kann die IP/der FQDN des ersten rke2-Servers in Ihrem Setup sein.

multinode

Auf true einstellen, wenn ein HA-fähiges Produktionsprofil mit mehreren Knoten ausgewählt wird. Der Wert dieses Flags wird automatisch vom interaktiven Installationsprogramm festgelegt. Er wird nur für interne Zwecke verwendet und darf nicht manuell geändert werden.

admin_username

Der Benutzername, den Sie als Administrator (z. B. Admin) für die Host-Organisation festlegen möchten.

admin_password

Das festzulegende Hostadministratorkennwort.

rke_token

Verwenden Sie hier einen neu generierten GUID. Dies ist ein vorab freigegebenes, Cluster-spezifisches Geheimnis. Er wird für alle Knoten benötigt, die dem Cluster beitreten.

profile

Legt das Profil der Installation fest. Die verfügbaren Profile sind:

  • default: Auswertungsprofil für einen einzelnen Knoten.
  • ha: HA-fähiges Produktionsprofil mit mehreren Knoten.

Der Wert dieses Flags wird automatisch vom interaktiven Installationsprogramm festgelegt. Er wird nur für interne Zwecke verwendet und darf nicht manuell geändert werden.

infra.docker_registry.username

Der Benutzername, den Sie für die Docker-Registrierungsinstallation festlegen möchten.

infra.docker_registry.password

Das Kennwort, das Sie für die Docker-Registrierungsinstallation festlegen möchten.

Optionale Parameter

Beschreibung

telemetry_optout

true oder false – Wird verwendet, um das Senden der Telemetrie zurück an UiPath zu deaktivieren. Ist standardmäßig auf false festgelegt.
Wenn Sie die Option deaktivieren möchten, wählen Sie true aus.

infra.pod_log_path

Ermöglicht es Ihnen, den /var/log/pods-Standardpfad der Pod-Protokolle in einen benutzerdefinierten Pfad Ihrer Wahl zu ändern.
Hinweis:
Beim Aktualisieren des Protokollpfad s werden die Protokolle des vorhandenen Containers von /var/log/pods verworfen.

Zertifikatkonfiguration

Wenn zum Zeitpunkt der Installation kein Zertifikat bereitgestellt wird, erstellt das Installationsprogramm selbst ausgestellte Zertifikate und konfiguriert sie im Cluster.

Die Gültigkeit der selbstsignierten Zertifikate beträgt 90 Tage.

Einzelheiten zum Erlangen eines Zertifikats finden Sie unter:

Hinweis:
Stellen Sie sicher, dass Sie den absoluten Pfad für die Zertifikatsdateien angeben. Führen Sie pwd aus, um den Pfad des Verzeichnisses abzurufen, in dem die Dateien gespeichert sind, und hängen Sie den Namen der Zertifikatsdatei an cluster_config.jsonan.

In HA-fähigen Produktionsinstallationen mit mehreren Knoten ist ein Zertifikat nur auf dem ersten Knoten erforderlich.

Parameter

Beschreibung

server_certificate.ca_cert_file

Der absolute Pfad zum Zertifikat der Zertifizierungsstelle. Diese Zertifizierungsstelle ist die Stelle, die das TLS-Zertifikat signiert. Ein Zertifizierungsstellenpaket darf nur die Kettenzertifikate enthalten, die zum Signieren des TLS-Zertifikats verwendet werden. Das Kettenlimit liegt bei neun Zertifikaten.

Wenn Sie ein selbstsigniertes Zertifikat verwenden, müssen Sie den Pfad zum zuvor erstellen rootCA.crt angeben. Lassen Sie das Feld leer, wenn Sie möchten, dass das Installationsprogramm das Zertifikat generiert.

server_certificate.tls_cert_file

Der absolute Pfad zum TLS-Zertifikat (server.crt ist das selbstsignierte Zertifikat). Lassen Sie das Feld leer, wenn Sie möchten, dass das Installationsprogramm das Zertifikat generiert.

server_certificate.tls_key_file

Der absolute Pfad zum Zertifikatsschlüssel (server.key ist das selbstsignierte Zertifikat). Lassen Sie das Feld leer, wenn Sie möchten, dass das Installationsprogramm das Zertifikat generiert.

identity_certificate.token_signing_cert_file

Der absolute Pfad zum Identitätstoken-Signaturzertifikat, das zum Signieren von Token verwendet wird (identity.pfx ist das selbstsignierte Zertifikat). Lassen Sie das Feld leer, wenn das Installationsprogramm das Identitätszertifikat mithilfe des Serverzertifikats generieren soll.

identity_certificate.token_signing_cert_pass

Klartextkennwort, das beim Exportieren des Identitätstoken-Signaturzertifikats festgelegt wurde.

additional_ca_certs

Der absolute Pfad zu der Datei, die zusätzliche Zertifikate der Zertifizierungsstelle enthält, die von allen Diensten, die als Teil von Automation Suite ausgeführt werden, als vertrauenswürdig angesehen werden sollen. Alle Zertifikate in der Datei müssen im gültigen PEM-Format vorliegen.

Sie müssen die Datei beispielsweise mit dem Zertifizierungsstellenzertifikat des SQL-Servers angeben, wenn das Zertifikat nicht von einer öffentlichen Zertifizierungsstelle ausgestellt wurde.

Datenbankkonfiguration

Workflow zur Datenbankerstellung

Das interaktive Installationsprogramm erstellt automatisch Datenbanken mit dem folgenden Workflow:

  1. Das interaktive Installationsskript überprüft den Wert des Parameters sql.create_db in der Datei cluster_config.json .
    • Wenn der Parameter sql.create_db auf true festgelegt ist, generiert das Installationsprogramm automatisch alle Datenbanken in Ihrem Namen. In diesem Fall verwendet das Installationsprogramm die standardmäßigen Datenbanknamen und Standardvorlagen und ignoriert alle benutzerdefinierten Datenbanknamen, die Sie angegeben haben.

      Weitere Informationen finden Sie unter Automatisches Erstellen der erforderlichen Datenbanken.

    • Wenn sql.create_db auf false festgelegt ist, müssen Sie Ihre eigenen Datenbanken mitbringen. In diesem Fall müssen Sie Ihre Datenbanken manuell einrichten. Beachten Sie, dass Sie benutzerdefinierte Datenbanknamen verwenden können, sofern Sie die angegebenen Namenskonventionen einhalten. Dieser Schritt ist kritisch, da wir den Datenbanknamen in Verbindung mit der Verbindungsvorlage verwenden, um die Datenbankverbindungszeichenfolge zu bilden. Wenn Sie die empfohlene Namenskonvention nicht einhalten, müssen Sie die SQL-Verbindungszeichenfolgen selbst angeben.

      Weitere Informationen finden Sie unter Mitbringen Ihrer eigenen Datenbanken.

  2. Das interaktive Installationsprogramm generiert die Verbindungszeichenfolgen wie folgt:

    • Wenn Sie keine Verbindungszeichenfolge für Ihren Dienst definiert haben, verwendet das Installationsprogramm die Verbindungsvorlage, um alle Datenbankverbindungszeichenfolgen zu generieren.

    • Wenn Sie eine Verbindungszeichenfolge für Ihren Dienst definiert haben, verwendet das Installationsprogramm die bereitgestellte Verbindungszeichenfolge für Ihre Datenbank.

Automatisches Erstellen der erforderlichen Datenbanken

Wenn das Installationsprogramm die Datenbanken erstellen soll, füllen Sie die folgenden Felder aus:

Parameter

Beschreibung

sql.create_db

Legen Sie true fest, damit das Installationsprogramm die Datenbanken erstellen kann. Beachten Sie, dass das Installationsprogramm die standardmäßigen Datenbanknamen und Standardvorlagen verwendet und alle von Ihnen angegebenen benutzerdefinierten Datenbanknamen ignoriert.

sql.server_url

Der FQDN des SQL-Servers, auf dem das Installationsprogramm die Datenbank konfigurieren soll.

sql.port

Portnummer, auf der eine Datenbankinstanz auf dem SQL-Server gehostet werden soll.

sql.username

Der Benutzername/die UserID, um eine Verbindung mit dem SQL-Server herzustellen.

sql.password

Das Kennwort des zuvor angegebenen Benutzernamens, um eine Verbindung mit dem SQL-Server herzustellen.

Hinweis:
Stellen Sie sicher, dass der Benutzer über die dbcreator-Rolle verfügt. Dadurch erhalten sie die Berechtigung zum Erstellen der Datenbank im SQL-Server. Andernfalls schlägt die Installation fehl.

Die ODBC-Verbindung unterstützt keine Benutzernamen, die Sonderzeichen enthalten. Verwenden Sie bei Datenbankbenutzernamen für AI Center und Document Understanding nur Groß- und Kleinbuchstaben.

Mitbringen Ihrer eigenen Datenbank

Wenn Sie eigene Datenbanken für eine neue Automation Suite-Installation einsetzen möchten, empfehlen wir dringend, neue Datenbanken einzurichten, anstatt vorhandene zu verwenden. Diese Vorsichtsmaßnahme ist notwendig, um Konflikte mit dem Betrieb der Automation Suite zu vermeiden, die aufgrund von übrig gebliebenen Metadaten aus alten Datenbanken auftreten können.

Wenn Sie Ihre eigene Datenbank mitbringen, müssen Sie die SQL-Verbindungszeichenfolgen für jede Datenbank angeben. Die Automation Suite unterstützt die folgenden Formate für SQL-Verbindungszeichenfolgen:

Parameter

Beschreibung

Produkte

sql_connection_string_template

Vollständige ADO.NET -Verbindungszeichenfolge, wobei der Katalogname auf DB_NAME_PLACEHOLDER festgelegt ist. Das Installationsprogramm ersetzt diesen Platzhalter durch die Standarddatenbanknamen für die installierten Suite-Dienste.

Plattform, Orchestrator, Automation Suite Robots, Test Manager, Automation Hub, Automation Ops, Insights, Task Mining, Data Service, Process Mining, Document Understanding

sql_connection_string_template_jdbc

Vollständige JDBC -Verbindungszeichenfolge, wobei der Datenbankname auf DB_NAME_PLACEHOLDER festgelegt ist. Das Installationsprogramm ersetzt diesen Platzhalter durch die Standarddatenbanknamen für die installierten Suite-Dienste.

AI Center

sql_connection_string_template_odbc

Vollständige ODBC-Verbindungszeichenfolge, bei der der Datenbankname auf DB_NAME_PLACEHOLDER festgelegt ist. Das Installationsprogramm ersetzt diesen Platzhalter durch die Standarddatenbanknamen für die installierten Suite-Dienste.

Document Understanding

sql_connection_string_template_sqlalchemy_pyodbc

Vollständige SQL-Alchemy PYODBC-Verbindungszeichenfolge, bei der der Datenbankname auf DB_NAME_PLACEHOLDER festgelegt ist. Das Installationsprogramm ersetzt diesen Platzhalter durch die Standarddatenbanknamen für die installierten Suite-Dienste.

Process Mining

Wichtig:
Stellen Sie sicher, dass das in den Verbindungszeichenfolgen angegebene SQL-Konto die Rollen db_securityadmin und db_owner für alle Automation Suite-Datenbanken erhält. Wenn die Sicherheitsbeschränkungen die Verwendung von db_owner nicht zulassen, sollte das SQL-Konto über die folgenden Rollen und Berechtigungen für alle Datenbanken verfügen:
  • db_ddladmin
  • db_datawriter
  • db_datareader
  • Berechtigung EXECUTE für das Schema „dbo“
Wichtig:

Wenn Sie die Verbindungszeichenfolgen manuell in der Konfigurationsdatei festlegen, können Sie SQL-, JDBC-, ODBC- oder PYODBC-Kennwörter wie folgt maskieren:

  • für SQL: Fügen Sie ' am Anfang und Ende des Kennworts hinzu und verdoppeln Sie alle anderen ' .
  • für JDBC/ODBC: Fügen Sie { am Anfang des Kennworts und } am Ende hinzu, und verdoppeln Sie alle anderen } .
  • für PYODBC: username und password sollten url-codiert sein, um Sonderzeichen zu berücksichtigen.
Wichtig: Für die AutomationSuite_ProcessMining_Airflow-Datenbank für das Process Mining-Produkt muss READ_COMMITTED_SNAPSHOT aktiviert sein.
Hinweis:
Standardmäßig ist TrustServerCertificate auf False festgelegt und Sie müssen ein zusätzliches Zertifizierungsstellenzertifikat für den SQL-Server bereitstellen. Dies ist erforderlich, wenn das SQL Server-Zertifikat selbstsigniert oder von einer internen Zertifizierungsstelle signiert wurde.

Weitere Informationen finden Sie unter Zertifikatkonfiguration auf dieser Seite.

Beispiel: sql_connection_string_template

Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;

Beispiel: sql_connection_string_template_jdbc

jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"

Beispiel: sql_connection_string_template_odbc

SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"

sql_connection_string_template_sqlalchemy_pyodbc

mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"

Standardmäßige und optionale DB-Namen für die Automation Suite-Dienste

{
  "orchestrator": "AutomationSuite_Orchestrator",
  "orchestrator_ta": "AutomationSuite_Orchestrator",
  "asrobots": "AutomationSuite_Orchestrator",
  "orchestrator_upd": "AutomationSuite_Platform",
  "platform": "AutomationSuite_Platform",
  "test_manager": "AutomationSuite_Test_Manager",
  "automation_ops": "AutomationSuite_Platform",
  "automation_hub": "AutomationSuite_Automation_Hub",
  "insights": "AutomationSuite_Insights",
  "task_mining": "AutomationSuite_Task_Mining",
  "dataservice": "AutomationSuite_DataService", 
  "aicenter": "AutomationSuite_AICenter",
  "documentunderstanding": "AutomationSuite_DU_Datamanager",
  "processmining_airflow": "AutomationSuite_Airflow",
  "processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
  "processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
    
}{
  "orchestrator": "AutomationSuite_Orchestrator",
  "orchestrator_ta": "AutomationSuite_Orchestrator",
  "asrobots": "AutomationSuite_Orchestrator",
  "orchestrator_upd": "AutomationSuite_Platform",
  "platform": "AutomationSuite_Platform",
  "test_manager": "AutomationSuite_Test_Manager",
  "automation_ops": "AutomationSuite_Platform",
  "automation_hub": "AutomationSuite_Automation_Hub",
  "insights": "AutomationSuite_Insights",
  "task_mining": "AutomationSuite_Task_Mining",
  "dataservice": "AutomationSuite_DataService", 
  "aicenter": "AutomationSuite_AICenter",
  "documentunderstanding": "AutomationSuite_DU_Datamanager",
  "processmining_airflow": "AutomationSuite_Airflow",
  "processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
  "processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
    
}
Hinweis:
Wenn Sie die Verbindungszeichenfolge für einen der oben genannten Dienste überschreiben möchten, legen Sie sql_connection_str für den spezifischen Dienst fest.

Sie müssen diese Datenbanken weiterhin manuell erstellen, bevor Sie das Installationsprogramm ausführen.

Überschreiben der Standardverbindungszeichenfolge für Orchestrator und die Plattform

{
  "orchestrator": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  },
  "platform": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  }
}{
  "orchestrator": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  },
  "platform": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  }
}
Um die Datenbankverbindungszeichenfolgen für andere Produkte zu überschreiben, legen Sie sql_connection_str in den entsprechenden Produktblöcken fest. Die Verbindungszeichenfolge muss ein vom jeweiligen Produkt unterstütztes Format haben.

Beispiel zum Festlegen der Datenbankverbindungszeichenfolge für das AI Center

Parameter

Beschreibung

aicenter.sql_connection_str

AICenter JDBC-Verbindungszeichenfolge (Siehe unten für das JDBC-Format)

Hinweis: Überprüfen Sie bitte, ob die JDBC-Verbindungszeichenfolge das Format des folgenden Beispiels hat.
"aicenter": {
    "enabled": true,
    "sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}"aicenter": {
    "enabled": true,
    "sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}

Beispiel für die Document Understanding-Verbindungszeichenfolge

"documentUnderstanding": {
  "datamanager": {
    "sql_connection_str": "SERVER=sql-server.database.windows.net;DATABASE=datamanager;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=myPassword"
  },
  "sql_connection_str": "Server=tcp:database.example.com,1433;Initial Catalog=db;Persist Security Info=False;User Id=testadmin@example.com;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;",
  "cjkOcr": 
  {
    "enabled": true
  }
}"documentUnderstanding": {
  "datamanager": {
    "sql_connection_str": "SERVER=sql-server.database.windows.net;DATABASE=datamanager;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=myPassword"
  },
  "sql_connection_str": "Server=tcp:database.example.com,1433;Initial Catalog=db;Persist Security Info=False;User Id=testadmin@example.com;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;",
  "cjkOcr": 
  {
    "enabled": true
  }
}
Hinweis: Die SQL-Verbindungszeichenfolge vom Data Manager ist nur optional, wenn Sie die Standardzeichenfolge mit Ihrer eigenen überschreiben möchten.

Die Handschrift ist für die Online-Installation immer aktiviert.

Der Standardwert für max_cpu_per-pod ist 2, Sie können ihn jedoch an Ihre Anforderungen anpassen. Weitere Informationen finden Sie in der Document Understanding-Konfigurationsdatei.

Konfiguration des externen Objektspeichers

Allgemeine Konfiguration

Mit der Automation Suite können Sie Ihren eigenen externen Speicheranbieter mitbringen. Sie können aus den folgenden Speicheranbietern wählen:

  • Azure
  • AWS
  • S3-kompatibel

Sie können den externen Objektspeicher auf eine der folgenden Arten konfigurieren:

  • Während der Installation mit dem interaktiven Installationsprogramm;
  • Nach der Installation mithilfe der Datei cluster_config.json.
Hinweis:
  • Damit die Automation Suite ordnungsgemäß funktioniert, wenn vorsignierte URLs verwendet werden, müssen Sie sicherstellen, dass der Automation Suite-Cluster, Browser und alle Ihre Maschinen, einschließlich Workstations und Robotermaschinen, auf Ihren externen Objektspeicher zugreifen können.
  • Die serverseitige Verschlüsselung mit dem Schlüsselverwaltungsdienst (SSE-KMS) kann nur für die Automation Suite-Buckets aktiviert werden, die in einer Region bereitgestellt werden, die nach dem 30. Januar 2014 erstellt wurde.

    Die SSE-KMS-Funktionalität erfordert unveränderte SignV4-APIs. Regionen, die vor dem 30. Januar 2014 erstellt wurden, verwenden aufgrund der Abwärtskompatibilität mit SignV2 keine unveränderten SignV4-APIs. Daher funktioniert SSE-KMS nur in Regionen, die SignV4 für die Kommunikation verwenden. Informationen zur Bereitstellung der verschiedenen Regionen finden Sie in der AWS-Dokumentation.

In der folgenden Tabelle sind die cluster_config.json-Parameter aufgeführt, die Sie zum Konfigurieren der einzelnen Anbieter von externem Objektspeicher verwenden können:

Parameter

Azure

AWS

S3-kompatibel

Beschreibung

external_object_storage.enabled

available

available

available

Geben Sie an, ob Sie Ihren eigenen Objektspeicher mitbringen möchten. Mögliche Werte: true und false.

external_object_storage.create_bucket

available

available

available

Geben Sie an, ob Sie den Bucket bereitstellen möchten. Mögliche Werte: true und false.

external_object_storage.storage_type

available

available

available

Geben Sie den Speicheranbieter an, den Sie konfigurieren möchten. Beim Wert wird die Groß-/Kleinschreibung beachtet. Mögliche Werte: azure und s3.
Hinweis: Viele S3-Objektspeicher erfordern, dass CORS auf den gesamten Datenverkehr aus dem Automation Suite-Cluster festgelegt ist.Sie müssen die CORS-Richtlinie auf Objectstore-Ebene konfigurieren, um den FQDN des Clusters zuzulassen.

external_object_storage.fqdn

Nicht verfügbar

available

available

Geben Sie den FQDN des S3-Servers an. Erforderlich bei den AWS-Instanz- und Nicht-Instanzprofilen.

external_object_storage.port

Nicht verfügbar

available

available

Geben Sie den S3-Port an. Erforderlich bei den AWS-Instanz- und Nicht-Instanzprofilen.

external_object_storage.region

Nicht verfügbar

available

available

Geben Sie die AWS-Region an, in der Buckets gehostet werden. Erforderlich bei den AWS-Instanz- und Nicht-Instanzprofilen.

external_object_storage.access_key

Nicht verfügbar

available

available

Geben Sie den Zugriffsschlüssel für das S3-Konto an. Nur erforderlich im Fall des AWS-Nicht-Instanzprofils.

external_object_storage.secret_key

Nicht verfügbar

available

available

Geben Sie den geheimen Schlüssel für das S3-Konto an. Nur erforderlich im Fall des AWS-Nicht-Instanzprofils.

external_object_storage.use_instance_profile

Nicht verfügbar

available

available

Geben Sie an, ob Sie ein Instanzprofil verwenden möchten. Ein AWS Identity and Access Management(IAM)-Instanzprofil gewährt sicheren Zugriff auf AWS-Ressourcen für Anwendungen oder Dienste, die auf Amazon Elastic Compute Cloud(EC2)-Instanzen ausgeführt werden. Wenn Sie sich für AWS S3 entscheiden, ermöglicht ein Instanzprofil einer EC2-Instanz die Interaktion mit S3-Buckets, ohne dass explizite AWS-Anmeldeinformationen (z. B. Zugriffsschlüssel) auf der Instanz gespeichert werden müssen.

external_object_storage.use_managed_identity

available

Nicht verfügbar

Nicht verfügbar

Verwenden Sie die verwaltete Identität mit Ihrem Azure-Speicherkonto. Mögliche Werte: true und false.
external_object_storage.bucket_name_prefix 1

Nicht verfügbar

available

available

Geben Sie das Präfix für die Bucket-Namen an. Im Falle des AWS Nicht-Instanzprofils optional.

external_object_storage.bucket_name_suffix 2

Nicht verfügbar

available

available

Geben Sie das Suffix für die Bucket-Namen an. Im Falle des AWS Nicht-Instanzprofils optional.

external_object_storage.account_key

available

Nicht verfügbar

Nicht verfügbar

Geben Sie den Azure-Kontoschlüssel an. Nur erforderlich bei Verwendung einer nicht verwalteten Identität.

external_object_storage.account_name

available

Nicht verfügbar

Nicht verfügbar

Geben Sie den Namen des Azure-Kontos an.

external_object_storage.azure_fqdn_suffix

available

Nicht verfügbar

Nicht verfügbar

Geben Sie das Azure-FQDN-Suffix an. Optionaler Parameter.

external_object_storage.client_id

available

Nicht verfügbar

Nicht verfügbar

Geben Sie Ihre Azure Client-ID an. Nur erforderlich, wenn eine verwaltete Identität verwendet wird.

1, 2 Beim Konfigurieren des externen Objektspeichers müssen Sie die Benennungsregeln und Konventionen Ihres Anbieters sowohl für bucket_name_prefix als auch für bucket_name_suffix befolgen. Darüber hinaus dürfen Suffix und Präfix eine kombinierte Länge von nicht mehr als 25 Zeichen haben und Sie dürfen das Präfix nicht mit einem Bindestrich (-) beenden oder das Suffix damit beginnen, da wir das Zeichen bereits automatisch für Sie hinzufügen.

Produktspezifische Konfiguration

Sie können die im Abschnitt Allgemeine Konfiguration beschriebenen Parameter verwenden, um die allgemeine Automation Suite-Konfiguration zu aktualisieren. Das bedeutet, dass alle installierten Produkte dieselbe Konfiguration verwenden würden. Wenn Sie ein oder mehrere Produkte anders konfigurieren möchten, können Sie die allgemeine Konfiguration überschreiben. Sie müssen nur die Produkte angeben, für die Sie den externen Objektspeicher einrichten möchten, und dieselben Parameter verwenden, um Ihre Konfiguration zu definieren. Beachten Sie, dass alle anderen installierten Produkte weiterhin die allgemeine Konfiguration übernehmen würden.

Das folgende Beispiel zeigt, wie Sie die allgemeine Konfiguration für den Orchestrator überschreiben können:

"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in case of aws non instance profile>
  "secret_key": "", // <needed in case of aws non instance profile>
  "use_managed_identity": false, // <true/false>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "", // <needed only when using non managed identity>
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
  "client_id": "" // <optional field in case of managed identity>
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "use_managed_identity": false, // <true/false>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "", // <needed only when using non managed identity>
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
    "client_id": "" // <optional field in case of managed identity>
  }
}"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in case of aws non instance profile>
  "secret_key": "", // <needed in case of aws non instance profile>
  "use_managed_identity": false, // <true/false>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "", // <needed only when using non managed identity>
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
  "client_id": "" // <optional field in case of managed identity>
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "use_managed_identity": false, // <true/false>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "", // <needed only when using non managed identity>
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
    "client_id": "" // <optional field in case of managed identity>
  }
}

Rotieren der Anmeldeinformationen im Blob-Speicher für Process Mining

Um die Anmeldeinformationen im Blob-Speicher für Process Mining in der Automation Suite zu ändern, müssen die gespeicherten Geheimnisse mit den neuen Anmeldeinformationen aktualisiert werden. Siehe Rotierende Anmeldeinformationen im Blob-Speicher.

Spezifische Orchestrator-Konfiguration

Der Orchestrator kann Roboterprotokolle auf einem Elasticsearch-Server speichern. Sie können diese Funktion im Abschnitt orchestrator.orchestrator_robot_logs_elastic konfigurieren. Wenn nicht angegeben, werden Roboterprotokolle in der Orchestrator-Datenbank gespeichert.
In der folgenden Tabelle sind die orchestrator.orchestrator_robot_logs_elastic-Parameter aufgeführt:

Parameter

Beschreibung

elastic_uri

Die Adresse der Elasticsearch-Instanz, die verwendet werden soll. Sie muss in Form eines URI bereitgestellt werden. Wenn angegeben, sind auch Benutzername und Kennwort erforderlich.

elastic_auth_username

Der Elasticsearch-Benutzername, der für die Authentifizierung verwendet wird.

elastic_auth_password

Das Elasticsearch-Kennwort, das für die Authentifizierung verwendet wird.

Beispiel

"orchestrator": {
    "orchestrator_robot_logs_elastic": {
        "elastic_uri": "https://elastic.example.com:9200",
        "elastic_auth_username": "elastic-user",
        "elastic_auth_password": "elastic-password"
    }
}"orchestrator": {
    "orchestrator_robot_logs_elastic": {
        "elastic_uri": "https://elastic.example.com:9200",
        "elastic_auth_username": "elastic-user",
        "elastic_auth_password": "elastic-password"
    }
}

Insights-spezifische Konfiguration

Wenn sie Insights aktivieren, können Benutzer die SMTP-Serverkonfiguration einschließen, die zum Senden geplanter E-Mails/Warnungs-E-Mails verwendet wird. Wenn sie fehlt, funktionieren die geplanten E-Mails und die Warnungs-E-Mails nicht.

Details zu den insights.smtp_configuration-Feldern:

Parameter

Beschreibung

tls_version

Gültige Namen: TLSv1_2, TLSv1_1, SSLv23. Lassen Sie den Schlüssel ganz weg, wenn Sie TLS nicht verwenden.

from_email

Adresse, von der Warnungs-/Termin-E-Mails gesendet werden.

host

Hostname des SMTP-Servers.

port

Der Port des SMTP-Servers.

username

Benutzername für die SMTP-Serverauthentifizierung.

password

Kennwort für die SMTP-Serverauthentifizierung.

Beispiel

"insights": {
    "enabled": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }"insights": {
    "enabled": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }

Process Mining-spezifische Konfiguration

Wenn Sie Process Mining aktivieren, empfehlen wir Benutzern, einen ZWEITEN SQL-Server anzugeben, der als Data Warehouse fungiert, das vom primären Automation Suite-SQL-Server getrennt ist. Der Data Warehouse SQL-Server wird stark belastet und kann im Abschnitt processmining konfiguriert werden:

Parameter

Beschreibung

sql_connection_str

DotNet-formatierte Verbindungszeichenfolge mit Datenbank als Platzhalter: Initial Catalog=DB_NAME_PLACEHOLDER .

sqlalchemy_pyodbc_sql_connection_str

Sqlalchemy PYODBC-formatierte Verbindungszeichenfolge für den Speicherort der benutzerdefinierten Metadaten:

sqlServer:1433/DB_NAME_PLACEHOLDER.

warehouse.sql_connection_str

DotNet-formatierte SQL-Verbindungszeichenfolge zum Processmining Data Warehouse SQL-Server mit Platzhalter für dbname:

Initial Catalog=DB_NAME_PLACEHOLDER.

warehouse.sqlalchemy_pyodbc_sql_connection_str

Sqlalchemy PYODBC-formatierte SQL-Verbindungszeichenfolge zum Processmining-Data-Warehouse-SQL-Server mit Platzhalter für Datenbankname:

sqlServer:1433/DB_NAME_PLACEHOLDER.

warehouse.master_sql_connection_str

Wenn das Installationsprogramm Datenbanken über die Einstellung sql.create_db: true erstellt, muss eine DotNet-formatierte Master SQL-Verbindungszeichenfolge für den Process Mining Data Warehouse SQL-Server bereitgestellt werden. Eine Datenbank in der Verbindungszeichenfolge muss als master festgelegt werden.

Beispiel für die Process Mining-Verbindungszeichenfolge

"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
    "warehouse": {
      "sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "blob_storage_account_use_presigned_uri": true
  }, "processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
    "warehouse": {
      "sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "blob_storage_account_use_presigned_uri": true
  },
Wichtig:
Sie müssen den Standard-Serverport 1433 für die folgenden Datenbanken verwenden:
  • warehouse.sql_connection_str
  • warehouse.sqlalchemy_pyodbc_sql_connection_str
  • warehouse.master_sql_connection_str

Nicht standardmäßige SQL-Serverports werden nicht unterstützt.

Spezifische Konfiguration für Automation Suite Robots

Automation Suite-Roboter können die Paketzwischenspeicherung verwenden, um Ihre Prozessausführungen zu optimieren und schneller auszuführen. NuGet-Pakete werden aus dem Dateisystem abgerufen, anstatt aus dem Internet/Netzwerk heruntergeladen zu werden. Dies erfordert einen zusätzlichen Speicherplatz von mindestens 10 GiB und sollte einem Ordner im Dateisystem der Hostmaschine der dedizierten Knoten zugewiesen werden.

Um die Paketzwischenspeicherung zu aktivieren, müssen Sie die folgenden cluster_config.json-Parameter aktualisieren:

Parameter

Standardwert

Beschreibung

packagecaching

true

Wenn auf true festgelegt, verwenden Roboter einen lokalen Cache für die Paketauflösung.

packagecachefolder

/uipath_asrobots_package_cache

Der Speicherort auf dem serverlosen Agent-Knoten, auf dem die Pakete gespeichert sind.

AI Center-spezifische Konfiguration

Damit das AI Center ordnungsgemäß funktioniert, müssen Sie die Parameter aicenter.external_object_storage.port und aicenter.external_object_storage.fqdn in der Datei cluster_config.jsonkonfigurieren.
Hinweis: Sie müssen die Parameter im Abschnitt aicenter der Datei cluster_config.jsonkonfigurieren, auch wenn Sie den Abschnitt external_object_storage der Datei konfiguriert haben.
Das folgende Beispiel zeigt eine gültige cluster_config.json-Konfiguration für das AI Center:
"aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
..."aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
...

Konfiguration der Überwachung

Um genügend Ressourcen für die Überwachung bereitzustellen (siehe Verwenden des Überwachungs-Stacks), sollten Sie die Anzahl der vCPUs im Cluster und den Umfang der gewünschten Metrikspeicherung berücksichtigen. Im Folgenden erfahren Sie, wie Sie die folgenden Konfigurationen der Überwachungsressourcen einstellen können.

In der folgenden Tabelle werden die Details des Überwachungsfelds beschrieben:

Parameter

Beschreibung

prometheus_retention

In Tagen.

Dies ist die Anzahl von Tagen, die die Metriken zum Zweck der Visualisierung in Grafana und der manuellen Abfrage über die Prometheus-Konsole gespeichert werden.

Der Standardwert ist 7.

prometheus_storage_size

In GiB.

Menge des zu reservierenden Speicherplatzes pro Prometheus-Replikat.

Eine gute Faustregel ist es, diesen Wert festzulegen auf:

0.65 * vCPU cores * (prometheus_retention / 7)

Beispiel:

Wenn Sie prometheus_retention auf 14 Tage festlegen und Ihr Cluster über 80 Kerne verfügt, die auf 5 Maschinen verteilt sind, wird dies zu:

0.65 * 80 * (14 / 7)

52 * (2)

104

Der Standardwert ist 45 und darf nicht niedriger angesetzt werden.

Wird der Speicherplatz in Prometheus knapp, dann wird eine Warnung mit spezifischen Anweisungen zur Behebung des Problems ausgelöst. Siehe hier.

prometheus_memory_limit

In MiB.

Die Speichermenge, auf die jedes Prometheus-Replikat begrenzt werden soll.

Eine gute Faustregel ist es, diesen Wert festzulegen auf:

100 * vCPU cores * (prometheus_retention / 7)

Beispiel:

Wenn Sie prometheus_retention auf 14 Tage festgelegt haben und Ihr Cluster über 80 Kerne verfügt, die auf 5 Maschinen verteilt sind, wird dies zu:

100 * 80 * (14 / 7)

8000 * (2)

16000

Der Standardwert für den Auswertungsmodus mit einem Knoten ist 3200, für den HA-fähigen Produktionsmodus mit mehreren Knoten ist der Standardwert 6000; dieser darf nicht niedriger angesetzt werden.

Wird der Arbeitsspeicher in Prometheus knapp, dann wird eine Warnung mit spezifischen Anweisungen zur Behebung des Problems ausgelöst. Siehe hier.

Beispiel

"monitoring": {
  "prometheus_retention": 14,
  "prometheus_memory_limit": 16000,
  "prometheus_storage_size": 104
}"monitoring": {
  "prometheus_retention": 14,
  "prometheus_memory_limit": 16000,
  "prometheus_storage_size": 104
}

Optional: Konfigurieren des Proxyservers

Hinweis:

Stellen Sie sicher, dass Sie die Proxyserveranforderungen erfüllen, bevor Sie den Proxyserver während der Installation konfigurieren.

Weitere Informationen finden Sie unter Schritt 2: Hinzufügen der Proxykonfiguration zu jedem Knoten.

Beim Ausführen des interaktiven Installationsassistenten müssen Sie ihn beenden und die cluster_config.json während des erweiterten Konfigurationsschritts aktualisieren.

Sie müssen mit vim oder Ihrem bevorzugten Editor für die Konfigurationsdatei Folgendes in die Konfigurationsdatei einfügen:

"proxy": {
  "enabled": true,
  "http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}"proxy": {
  "enabled": true,
  "http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}

Obligatorische Parameter

Beschreibung

enabled

Verwenden Sie true oder false, um die Proxyeinstellungen zu aktivieren oder zu deaktivieren.

http_proxy

Wird zum Weiterleiten von ausgehenden HTTP-Anfragen aus dem Cluster verwendet. Dies muss der FQDN und Port des Proxyservers sein.

https_proxy

Wird zum Weiterleiten von ausgehenden HTTPS-Anfragen aus dem Cluster verwendet. Dies muss der FQDN und Port des Proxyservers sein.

no_proxy

Eine kommagetrennte Liste von Hosts, IP-Adressen oder IP-Bereichen im CIDR-Format, die Sie nicht über den Proxyserver weiterleiten möchten. Dies muss ein privater Subnetzbereich, ein SQL Server-Host, eine benannte Serveradresse und eine Metadatenserveradresse sein: *.<fqdn>,<fixed_rke_address>:9345,<fixed_rke2_address>:6443.
  • fqdn – der Cluster-FQDN, der in cluster_config.json definiert ist.
  • fixed_rke_address – Der fixed_rke_address definiert in cluster_config.json
  • named server address – die IP-Adresse von /etc/resolv.conf
  • private_subnet_ip – das Cluster-VNET
  • sql server host – SQL-Serverhost
  • metadata server address – die IP-Adresse 169.254.169.254, die zum Abrufen von Maschinen-Metadaten von Clouddiensten wie Azure und AWS verwendet wird
  • k8s address range - die von den Kubernetes-Knoten verwendeten IP-Adressbereiche, z. B. 10.0.0.0/8
Wichtig:
Wenn Sie das AI Center mit einem externen Orchestrator verwenden, müssen Sie die externe Orchestrator-Domäne zur Liste no_proxy hinzufügen.

Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten

Um Widerstandsfähigkeit gegen zonale Ausfälle in einem Cluster mit mehreren Knoten zu ermöglichen, führen Sie die folgenden Schritte aus:

  1. Stellen Sie sicher, dass Knoten gleichmäßig über drei Verfügbarkeitszonen verteilt sind. Für einen Bare-Metal-Server oder eine VM, die von einem beliebigen Anbieter mit Ausnahme von AWS, Azure oder GCP bereitgestellt wird, müssen die Zonen-Metadaten über die Konfigurationsdatei unter /etc/default/k8s-node-labels auf jeder Maschine in folgendem Format bereitgestellt werden.
    NODE_REGION_LABEL=<REGION_NAME>
    NODE_ZONE_LABEL=<ZONE_NAME>
    cat > /etc/default/k8s-node-labels <<EOF
    EXTRA_K8S_NODE_LABELS="topology.kubernetes.io/region=$NODE_REGION_LABEL,topology.kubernetes.io/zone=${NODE_ZONE_LABEL}"
    EOFNODE_REGION_LABEL=<REGION_NAME>
    NODE_ZONE_LABEL=<ZONE_NAME>
    cat > /etc/default/k8s-node-labels <<EOF
    EXTRA_K8S_NODE_LABELS="topology.kubernetes.io/region=$NODE_REGION_LABEL,topology.kubernetes.io/zone=${NODE_ZONE_LABEL}"
    EOF
  2. Aktualisieren Sie die cluster_config.json-Datei während des erweiterten Konfigurationsschritts.
Um die cluster_config.json mithilfe des interaktiven Installationsassistenten zu aktualisieren, beenden Sie den erweiterten Konfigurationsschritt und fügen Sie Folgendes mithilfe von vim oder Ihrem bevorzugten Editor zur Konfigurationsdatei hinzu:
"zone_resilience": true"zone_resilience": true

Obligatorische Parameter

Beschreibung

zone_resilience

Verwenden Sie true oder false zum Aktivieren oder Deaktivieren der Widerstandsfähigkeit gegenüber zonalen Ausfällen.
Wichtig:
Wenn Sie die Widerstandsfähigkeit gegen Zonenausfälle aktivieren, ist die Übergabe der Argumente --zone und --region:
  • empfohlen, wenn Sie Ihre Maschinen in AWS, Azure oder GCP bereitstellen und Metadatendienste aktiviert sind, während das Installationsprogramm die Zonen- und Regionsdetails ausfüllt.
  • obligatorisch, wenn Sie Ihre Maschinen auf AWS, Azure oder GCP bereitstellen und Metadatendienste deaktiviert sind oder wenn Sie sich für einen anderen Cloud-Anbieter entscheiden.

Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei

Der in der Automation Suite bereitgestellte Kubernetes-Cluster verwendet die in /etc/resolv.conf konfigurierten Nameserver. Kubernetes funktioniert nicht mit lokalen DNS-Resolvern (127.0.0.1 oder 127.0.0.0/8). Wenn Sie solche Nameserver in der /etc/resolv.conf-Datei konfiguriert haben, müssen Sie daher einen Dateiverweis mit den richtigen Nameserver-Einträgen übergeben, auf die von jeder Stelle der VM im Parameter .infra.custom_dns_resolver in cluster_config.json zugegriffen werden kann.

Weitere Details zu einer bekannten Einschränkung finden Sie in der Kubernetes-Dokumentation.

Optionale Parameter

Beschreibung

.infra.custom_dns_resolver

Pfad zur Datei mit korrekten Nameserver-Einträgen, auf die von einer beliebigen Stelle der VM zugegriffen werden kann. Diese Nameserver-Einträge dürfen nicht aus 127.0.0.0/8 sein.

Optional: Erhöhen der Fehlertoleranz

Standardmäßig ermöglicht das HA-fähige Produktionsprofil mit mehreren Knoten, dass ein Serverknoten ausfällt, ohne dass ein Bereitstellungsfehler verursacht wird. Sie können die Toleranz für Serverknotenfehler erhöhen, indem Sie den Parameter fault_tolerance in der Datei cluster_config.json verwenden. Der Parameter verändert den Replikationsfaktor von Speicherkomponenten innerhalb des Clusters, wie Ceph und Longhorn.

Hardwareanforderungen

Um die Fehlertoleranz über 1 hinaus zu erhöhen, stellen Sie sicher, dass Ihre Umgebung die folgenden Anforderungen erfüllt:
  • Ihr Cluster besteht aus mindestens 2x+1 Serverknoten, wobei x die erforderliche Fehlertoleranz des Serverknotens ist;
  • Für jeden Serverknoten ist ein Raw-Gerät konfiguriert.

So erhöhen Sie die Fehlertoleranz

Um die Fehlertoleranz über 1 hinaus zu erhöhen, führen Sie die folgenden Schritte aus:
  1. Legen Sie fault_tolerance auf den erforderlichen Wert in der cluster_config.json-Datei fest. Wenn Sie diese Einstellung vor Beginn der Installation oder des Upgrades vornehmen, müssen Sie keine weiteren Schritte unternehmen.
  2. Führen Sie das Installationsprogramm uipathctl.sh aus, um den Replikationsfaktor des Ceph-Objektspeichers im Cluster zu ändern. Warten Sie, bis der Vorgang erfolgreich abgeschlossen wurde.
  3. Führen Sie das Installationsprogramm install-uipath.sh aus, um den Replikationsfaktor der Longhorn-Volumes zu ändern. Warten Sie, bis der Vorgang erfolgreich abgeschlossen wurde.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2024 UiPath. Alle Rechte vorbehalten