automation-suite
2024.10
false
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde. Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Automation Suite in der EKS/AKS-Installationsanleitung

Letzte Aktualisierung 16. Jan. 2026

Configuring input.json

Mit der Datei input.json konfigurieren Sie die UiPath®-Produkte, die Sie bereitstellen möchten, sowie die Parameter, Einstellungen und Präferenzen, die auf die ausgewählten Produkte angewendet werden, und die Einstellungen Ihrer Cloud-Infrastruktur. Sie müssen diese Datei aktualisieren, wenn Sie Standardeinstellungen ändern und eine erweiterte Konfiguration für Ihren Cluster verwenden möchten.
Hinweis:

Einige Produkte können Abhängigkeiten haben. Weitere Informationen finden Sie unter Automation Suite-Produkte.

Zum Bearbeiten von input.jsonkönnen Sie Ihren bevorzugten Texteditor auf Ihrem Client-Computer verwenden.
In der folgenden Tabelle werden die wichtigsten input.json -Parameter beschrieben, die Sie aktualisieren müssen, um die Automation Suite ordnungsgemäß zu konfigurieren. Ein Konfigurationsbeispiel finden Sie im Beispiel AKS input.json oder EKS input.json.

Allgemeine Parameter

Beschreibung

kubernetes_distribution

Geben Sie an, welche Kubernetes-Distribution Sie verwenden. Es kann sich um aks oder eks handeln.

install_type

Bestimmt, ob der Cluster im Online- oder Offlinemodus bereitgestellt wird. Wenn nicht anders angegeben, wird der Cluster im Onlinemodus bereitgestellt. Um den Cluster im Offlinemodus bereitzustellen, müssen Sie den Wert des Parameters install_type explizit auf offline festlegen.
Mögliche Werte: online oder offline.
Standardwert: online

registries

URLs zum Abrufen der Docker-Images und Helm-Charts für UiPath®-Produkte und die Automation Suite.

registry.uipath.com

istioMinProtocolVersion

Die von Istio für sichere Kommunikation akzeptierte Mindestversion des TLS-Protokolls. Kann entweder auf TLSV1_2 oder TLSV1_3 festgelegt werden.

fqdn

Der Lastausgleich-Endpunkt für die Automation Suite

admin_username

Der Benutzername, den Sie als Administrator für die Hostorganisation festlegen möchten.

admin_password

Das festzulegende Hostadministratorkennwort.

profile

Legt das Profil der Installation fest. Die verfügbaren Profile sind:

  • lite: Lite-Modus-Profil.
  • ha: HA-fähiges Produktionsprofil mit mehreren Knoten.

Weitere Informationen zur Verwaltung von Profilen finden Sie unter Profilkonfiguration.

telemetry_optout

true oder false – Wird verwendet, um das Senden der Telemetrie zurück an UiPath® zu deaktivieren. Ist standardmäßig auf false festgelegt.
Wenn Sie die Option deaktivieren möchten, wählen Sie trueaus.

fips_enabled_nodes

Geben Sie an, ob Sie FIPS 140-2 auf den Knoten aktivieren möchten, auf denen Sie die Automation Suite installieren möchten. Mögliche Werte sind true und false.
storage_class

Geben Sie die Speicherklasse an, die für die PV-Bereitstellung verwendet werden soll. Diese Speicherklasse muss mehrere Replikate für eine optimale Hochverfügbarkeit unterstützen und über Sicherungsfunktionen verfügen.

Weitere Informationen finden Sie im Abschnitt Blockspeicher .

storage_class_single_replica

Geben Sie die Speicherklasse an, die für die PV-Bereitstellung verwendet werden soll. Diese Speicherklasse kann ein einzelnes Replikat für die Komponenten haben, die keine Hochverfügbarkeit erfordern. Die Speicherklasse kann keine Sicherungsfunktionen haben.

Weitere Informationen finden Sie im Abschnitt Dateispeicher .

Der Wert storage_class_single_replica kann mit dem Wert storage_class identisch sein.
exclude_components

Verwenden Sie diesen Parameter, um zu verhindern, dass nicht wesentliche Komponenten installiert werden.

Weitere Informationen finden Sie unter Mitbringen Ihrer eigenen Komponenten.

namespace

Geben Sie den Namespace an, in dem Sie die Automation Suite installieren möchten.

Weitere Informationen finden Sie unter Benutzerdefinierte Namespace-Konfiguration.

argocd.application_namespace

Der Namespace der Anwendung, die Sie installieren möchten. Dieser sollte idealerweise mit dem Namespace identisch sein, in dem Sie die Automation Suite installieren möchten.

argocd.project

Das ArgoCD-Projekt, das zum Bereitstellen der Automation Suite erforderlich ist. Dies ist nur erforderlich, wenn Sie die freigegebene oder die globale ArgoCD-Instanz anstelle einer dedizierten ArgoCD-Instanz verwenden möchten.

Profilkonfiguration

Sie können bei der Installation der Automation Suite aus den folgenden Profilmodi wählen:

  • Konfigurierbares Hochverfügbarkeitsprofil (Lite-Modus)

  • Standardprofil mit hoher Verfügbarkeit (HA-Modus)

Nur im Lite-Modus können Sie bestimmte Produkte auf Hochverfügbarkeit (HA) umstellen. Diese Flexibilität ermöglicht es Ihnen, mit einer nicht-kritischen Workload zu beginnen und beim Onboarding kritischer Workloads einfach zum HA-Modus zu wechseln.

Um eine Hochverfügbarkeit (HA) für ein Produkt zu aktivieren, müssen Sie die input.json-Datei ändern. Insbesondere müssen Sie für die Produkte, die Sie hoch verfügbar machen möchten, den Parameter profile in ha ändern:
  ....
  "automation_ops": {
    "enabled": true,
    "profile": "ha" // flag for turning on high availability
  },
  "action_center": {
    "enabled": true,
    "profile": "lite"
  },
  ...  ....
  "automation_ops": {
    "enabled": true,
    "profile": "ha" // flag for turning on high availability
  },
  "action_center": {
    "enabled": true,
    "profile": "lite"
  },
  ...

Führen Sie die folgenden Schritte aus, um vom Lite-Modus in den HA-Modus zu wechseln:

  1. Stellen Sie sicher, dass Sie über genügend Infrastrukturfunktionen verfügen, um auf Plattformebene auf Standard-HA umzuschalten. Standardmäßig wird im Lite-Modus jedes Produkt so eingestellt, dass es ein Replikat mit aktivierter horizontaler Pod-Skalierung hat.
  2. Bearbeiten Sie die Konfigurationsdatei input.jsonund ändern Sie den Parameter profile für die Zielprodukte.
  3. Führen Sie den folgenden Befehl aus, um die Änderungen zu übernehmen:
     uipathctl manifest apply uipathctl manifest apply

UiPath®-Produkte

Sie können Produkte in der Automation Suite zum Zeitpunkt der Installation und zu jedem beliebigen Zeitpunkt nach der Installation aktivieren und deaktivieren. Weitere Informationen zu den einzelnen Produktkonfigurationen finden Sie unter Verwalten von Produkten.

Hinweis:

Abhängig von Ihrer Produktauswahl sind einige Konfigurationen möglicherweise nicht verfügbar. Beispielsweise unterstützen Insights und Task Mining derzeit keine Microsoft Entra ID-Authentifizierungskonfiguration (früher Azure Active Directory) für den Zugriff auf SQL, Speicher und andere Ressourcen, die Microsoft Entra unterstützen.

Orchestrator-Beispiel:

"orchestrator": {
  "enabled": true,
  "external_object_storage": {
    "bucket_name": "uipath-as-orchestrator"
  },
  "testautomation": {
    "enabled": true
  },
  "updateserver": {
    "enabled": true
  }"orchestrator": {
  "enabled": true,
  "external_object_storage": {
    "bucket_name": "uipath-as-orchestrator"
  },
  "testautomation": {
    "enabled": true
  },
  "updateserver": {
    "enabled": true
  }

Bringen Sie Ihre eigenen Komponenten mit

Mit der Automation Suite können Sie Ihre eigenen Gatekeeper- und OPA-Richtlinien, Cert Manager, Istio, Überwachungs- und Protokollierungskomponenten und vieles mehr einbringen. Sollten Sie diese Komponenten ausschließen wollen, stellen Sie sicher, dass sie in Ihrem Cluster verfügbar sind, bevor Sie die Automation Suite installieren.

Das folgende Beispiel zeigt eine Liste der ausgeschlossenen Komponenten. Sie können die Komponenten entfernen, die von der Automation Suite bereitgestellt werden sollen.

   "exclude_components": [
        "alerts",
        "auth",
        "istio",
        "cert-manager",
        "logging",
        "monitoring",
        "gatekeeper",
        "network-policies",
        "velero"
  ]    "exclude_components": [
        "alerts",
        "auth",
        "istio",
        "cert-manager",
        "logging",
        "monitoring",
        "gatekeeper",
        "network-policies",
        "velero"
  ] 

Ausgenommen Istio

Wenn Sie Ihre eigene Istio-Komponente mitbringen, stellen Sie sicher, dass Sie die gateway_selector -Beschriftungen aus Ihrem Istio-Gateway in die input.json -Datei aufnehmen. Weitere Informationen finden Sie unter AKS input.json-Beispiel oder EKS input.json-Beispiel.

Um die Beschriftung Ihres Gateway-Selektors zu finden, führen Sie die folgenden Schritte aus:

  1. Listen Sie alle Pods im Namespace <istio-system> auf, indem Sie den Befehl kubectl get pods -n <istio-system> ausführen.
  2. Finden Sie den passenden für Ihre Istio Gateway-Bereitstellung.

Hinweis: Wenn Sie das WASM-Plugin selbst installieren möchten und vermeiden möchten, dem Automation Suite-Installationsprogramm Schreibzugriff auf den <istio-system> -Namespace zu gewähren, müssen Sie die istio-configure -Komponente zur exclude_components -Liste hinzufügen.

Ohne Zertifikatsmanager

Wenn Sie Ihren eigenen Zertifikatsmanager verwenden möchten und Ihr TLS-Zertifikat von einer privaten oder nicht öffentlichen Zertifizierungsstelle ausgestellt wird, müssen Sie das Blattzertifikat sowie die Zwischenzertifikate der Zertifizierungsstelle manuell in die TLS-Zertifikatsdatei aufnehmen. Öffentlichen Zertifizierungsstellen wird von Clientsystemen automatisch vertraut, und es sind keine weiteren Aktionen Ihrerseits erforderlich.

Zertifikatkonfiguration

Wenn zum Zeitpunkt der Installation kein Zertifikat bereitgestellt wird, erstellt das Installationsprogramm selbst ausgestellte Zertifikate und konfiguriert sie im Cluster.

Hinweis:

Die Zertifikate können zum Zeitpunkt der Installation nur erstellt werden, wenn Sie dem Automation Suite-Installationsprogramm während der Installation Administratorrechte erteilen. Wenn Sie dem Installationsprogramm keine Administratorberechtigungen erteilen können, müssen Sie die Zertifikate selbst erstellen und verwalten.

Ausführliche Informationen zum Abrufen eines Zertifikats finden Sie unter Verwalten der Zertifikate.

Hinweis:
Stellen Sie sicher, dass Sie den absoluten Pfad für die Zertifikatsdateien angeben. Führen Sie pwd aus, um den Pfad des Verzeichnisses abzurufen, in dem die Dateien gespeichert sind, und hängen Sie den Namen der Zertifikatsdatei an input.jsonan.

Parameter

Beschreibung

server_certificate.ca_cert_file

Der absolute Pfad zum Zertifikat der Zertifizierungsstelle. Diese Zertifizierungsstelle ist die Stelle, die das TLS-Zertifikat signiert. Ein Zertifizierungsstellenpaket darf nur die Kettenzertifikate enthalten, die zum Signieren des TLS-Zertifikats verwendet werden. Das Kettenlimit liegt bei neun Zertifikaten.

Wenn Sie ein selbstsigniertes Zertifikat verwenden, müssen Sie den Pfad zum zuvor erstellen rootCA.crt angeben. Lassen Sie das Feld leer, wenn Sie möchten, dass das Installationsprogramm das Zertifikat generiert.

server_certificate.tls_cert_file

Der absolute Pfad zum TLS-Zertifikat (server.crt ist das selbstsignierte Zertifikat). Lassen Sie das Feld leer, wenn Sie möchten, dass das Installationsprogramm das Zertifikat generiert.
Hinweis: Wenn Sie das Zertifikat selbst bereitstellen, muss die server.crt -Datei die gesamte Kette enthalten, wie im folgenden Beispiel gezeigt:
-----server cert-----
-----root ca chain----------server cert-----
-----root ca chain-----

server_certificate.tls_key_file

Der absolute Pfad zum Zertifikatsschlüssel (server.key ist das selbstsignierte Zertifikat). Lassen Sie das Feld leer, wenn Sie möchten, dass das Installationsprogramm das Zertifikat generiert.

identity_certificate.token_signing_cert_file

Der absolute Pfad zum Identitätstoken-Signaturzertifikat, das zum Signieren von Token verwendet wird (identity.pfx ist das selbstsignierte Zertifikat). Lassen Sie das Feld leer, wenn das Installationsprogramm das Identitätszertifikat mithilfe des Serverzertifikats generieren soll.

identity_certificate.token_signing_cert_pass

Klartextkennwort, das beim Exportieren des Identitätstoken-Signaturzertifikats festgelegt wurde.

additional_ca_certs

Der absolute Pfad zu der Datei, die zusätzliche Zertifikate der Zertifizierungsstelle enthält, die von allen Diensten, die als Teil von Automation Suite ausgeführt werden, als vertrauenswürdig angesehen werden sollen. Alle Zertifikate in der Datei müssen im gültigen PEM-Format vorliegen.

Sie müssen die Datei beispielsweise mit dem Zertifizierungsstellenzertifikat des SQL-Servers angeben, wenn das Zertifikat nicht von einer öffentlichen Zertifizierungsstelle ausgestellt wurde.

Voraussetzungen für die Infrastruktur

Sie müssen Konfigurationsdetails der Voraussetzungen angeben, die Sie in Azure oder AWS konfiguriert haben. Informationen zu den input.json -Parameteranforderungen finden Sie in den folgenden Abschnitten zu den Voraussetzungen:

Konfiguration des externen Objektspeichers

Allgemeine Konfiguration

Mit der Automation Suite können Sie Ihren eigenen externen Speicheranbieter mitbringen. Sie können aus den folgenden Speicheranbietern wählen:

  • Azure
  • AWS
  • S3-kompatibel

Sie können den externen Objektspeicher auf eine der folgenden Arten konfigurieren:

  • Während der Installation;
  • Nach der Installation mithilfe der Datei input.json .
Hinweis:
  • Damit die Automation Suite ordnungsgemäß funktioniert, wenn vorsignierte URLs verwendet werden, müssen Sie sicherstellen, dass der Automation Suite-Cluster, Browser und alle Ihre Maschinen, einschließlich Workstations und Robotermaschinen, auf Ihren externen Objektspeicher zugreifen können.
  • Die serverseitige Verschlüsselung mit dem Schlüsselverwaltungsdienst (SSE-KMS) kann nur für die Automation Suite-Buckets aktiviert werden, die in einer Region bereitgestellt werden, die nach dem 30. Januar 2014 erstellt wurde.

    Die SSE-KMS-Funktionalität erfordert unveränderte SignV4-APIs. Regionen, die vor dem 30. Januar 2014 erstellt wurden, verwenden aufgrund der Abwärtskompatibilität mit SignV2 keine unveränderten SignV4-APIs. Daher funktioniert SSE-KMS nur in Regionen, die SignV4 für die Kommunikation verwenden. Informationen zur Bereitstellung der verschiedenen Regionen finden Sie in der AWS-Dokumentation.

Wenn Sie einen privaten Endpunkt für den Zugriff auf den Container verwenden, müssen Sie den Parameter fqdn in der Datei input.jsonhinzufügen und den privaten Endpunkt als Wert angeben.
In der folgenden Tabelle sind die input.json-Parameter aufgeführt, die Sie zum Konfigurieren der einzelnen Anbieter von externem Objektspeicher verwenden können:

Parameter

Azure

AWS

S3-kompatibel

Beschreibung

external_object_storage.enabled

available

available

available

Geben Sie an, ob Sie Ihren eigenen Objektspeicher mitbringen möchten. Mögliche Werte: true und false.

external_object_storage.create_bucket

available

available

available

Geben Sie an, ob Sie den Bucket bereitstellen möchten. Mögliche Werte: true und false.

external_object_storage.storage_type

available

available

available

Geben Sie den Speicheranbieter an, den Sie konfigurieren möchten. Beim Wert wird die Groß-/Kleinschreibung beachtet. Mögliche Werte: azure und s3.
Hinweis: Viele S3-Objektspeicher erfordern, dass CORS auf den gesamten Datenverkehr aus dem Automation Suite-Cluster festgelegt ist.Sie müssen die CORS-Richtlinie auf Objectstore-Ebene konfigurieren, um den FQDN des Clusters zuzulassen.

external_object_storage.fqdn

Nicht verfügbar

available

available

Geben Sie den FQDN des S3-Servers an. Erforderlich bei AWS-Instanz- und Nicht-Instanzprofilen.

external_object_storage.port

Nicht verfügbar

available

available

Geben Sie den S3-Port an. Erforderlich bei AWS-Instanz- und Nicht-Instanzprofilen.

external_object_storage.region

Nicht verfügbar

available

available

Geben Sie die AWS-Region an, in der Buckets gehostet werden. Erforderlich bei AWS-Instanz- und Nicht-Instanzprofilen.

external_object_storage.access_key

Nicht verfügbar

available

available

Geben Sie den Zugriffsschlüssel für das S3-Konto an. Nur erforderlich im Fall des AWS-Nicht-Instanzprofils.

external_object_storage.secret_key

Nicht verfügbar

available

available

Geben Sie den geheimen Schlüssel für das S3-Konto an. Nur erforderlich im Fall des AWS-Nicht-Instanzprofils.

external_object_storage.use_instance_profile

Nicht verfügbar

available

available

Geben Sie an, ob Sie ein Instanzprofil verwenden möchten. Ein AWS Identity and Access Management(IAM)-Instanzprofil gewährt sicheren Zugriff auf AWS-Ressourcen für Anwendungen oder Dienste, die auf Amazon Elastic Compute Cloud(EC2)-Instanzen ausgeführt werden. Wenn Sie sich für AWS S3 entscheiden, ermöglicht ein Instanzprofil einer EC2-Instanz die Interaktion mit S3-Buckets, ohne dass explizite AWS-Anmeldeinformationen (z. B. Zugriffsschlüssel) auf der Instanz gespeichert werden müssen.

external_object_storage.bucket_name_prefix 1

Nicht verfügbar

available

available

Geben Sie das Präfix für die Bucket-Namen an. Im Falle des AWS Nicht-Instanzprofils optional.

external_object_storage.bucket_name_suffix 2

Nicht verfügbar

available

available

Geben Sie das Suffix für die Bucket-Namen an. Im Falle des AWS Nicht-Instanzprofils optional.

external_object_storage.account_key

available

Nicht verfügbar

Nicht verfügbar

Geben Sie den Azure-Kontoschlüssel an.

external_object_storage.account_name

available

Nicht verfügbar

Nicht verfügbar

Geben Sie den Namen des Azure-Kontos an.

external_object_storage.azure_fqdn_suffix

available

Nicht verfügbar

Nicht verfügbar

Geben Sie das Azure-FQDN-Suffix an. Optionaler Parameter.

1 Wenn Sie den vorsignierten URL-Zugriff deaktivieren möchten, beachten Sie, dass diese Konfiguration von Task Mining und den folgenden Aktivitäten, die Daten aus dem Objektspeicher hochladen oder abrufen, nicht unterstützt wird:

2, 3 Beim Konfigurieren des externen Objektspeichers müssen Sie die Benennungsregeln und Konventionen Ihres Anbieters sowohl für bucket_name_prefix als auch für bucket_name_suffix befolgen. Darüber hinaus dürfen Suffix und Präfix eine kombinierte Länge von nicht mehr als 25 Zeichen haben und Sie dürfen das Präfix nicht mit einem Bindestrich (-) beenden oder das Suffix damit beginnen, da wir das Zeichen bereits automatisch für Sie hinzufügen.

Um eine sichere und kompatible Kommunikation mit der Automation Suite sicherzustellen, muss Ihr S3-kompatibler Objektspeicher eine oder mehrere der folgenden sicheren TLS-Verschlüsselungssuites unterstützen:

  • TLS 1.3:
    • TLS_AES_128_GCM_SHA256
    • TLS_AES_256_GCM_SHA384
    • TLS_CHACHA20_POLY1305_SHA256
  • TLS 1.2:
    • TLS_ECDHE_ECDSA_With_AES_128_CBC_SHA
    • TLS_ECDHE_ECDSA_With_AES_256_CBC_SHA
    • TLS_ECDHE_RSA_With_AES_128_CBC_SHA
    • TLS_ECDHE_RSA_With_AES_256_CBC_SHA
    • TLS_ECDHE_ECDSA_With_AES_128_GCM_SHA256
    • TLS_ECDHE_ECDSA_With_AES_256_GCM_SHA384
    • TLS_ECDHE_RSA_With_AES_128_GCM_SHA256
    • TLS_ECDHE_RSA_With_AES_256_GCM_SHA384
    • TLS_ECDHE_RSA_wiTH_CHACHA20_POLY1305_SHA256
    • TLS_ECDHE_ECDSA_With_CHACHA20_POLY1305_SHA256
Hinweis: Die Liste der unterstützten Verschlüsselungssuites kann sich im Laufe der Zeit ändern, um sie an bewährte Sicherheitsmethoden und Aktualisierungen in der kryptografischen Go-Bibliothek anzupassen. Die aktuelle Liste finden Sie in der aktuellen Go-Dokumentation .

Produktspezifische Konfiguration

Sie können die im Abschnitt Allgemeine Konfiguration beschriebenen Parameter verwenden, um die allgemeine Automation Suite-Konfiguration zu aktualisieren. Das bedeutet, dass alle installierten Produkte dieselbe Konfiguration verwenden würden. Wenn Sie ein oder mehrere Produkte anders konfigurieren möchten, können Sie die allgemeine Konfiguration überschreiben. Sie müssen nur die Produkte angeben, für die Sie den externen Objektspeicher einrichten möchten, und dieselben Parameter verwenden, um Ihre Konfiguration zu definieren. Beachten Sie, dass alle anderen installierten Produkte weiterhin die allgemeine Konfiguration übernehmen würden.

Das folgende Beispiel zeigt, wie Sie die allgemeine Konfiguration für den Orchestrator überschreiben können:

"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in the case of aws non instance profile>
  "secret_key": "", // <needed in the case of aws non instance profile>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "",
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "",
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
  }
}"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in the case of aws non instance profile>
  "secret_key": "", // <needed in the case of aws non instance profile>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "",
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "",
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
  }
}

Rotieren der Anmeldeinformationen im Blob-Speicher für Process Mining

Um die Anmeldeinformationen im Blob-Speicher für Process Mining in der Automation Suite zu ändern, müssen die gespeicherten Geheimnisse mit den neuen Anmeldeinformationen aktualisiert werden. Siehe Rotierende Anmeldeinformationen im Blob-Speicher.

Vorsignierte URL-Konfiguration

Sie können das Flag disable_presigned_url verwenden, um anzugeben, ob Sie den vorsignierten URL-Zugriff auf globaler Ebene deaktivieren möchten. Standardmäßig sind vorsignierte URLs für die gesamte Plattform aktiviert. Mögliche Werte sind: true und false.
{
  "disable_presigned_url" : true
}{
  "disable_presigned_url" : true
}
Hinweis:
  • Sie können den Standardwert dieses Parameters nur für Neuinstallationen ändern. Der Vorgang kann nicht rückgängig gemacht werden und gilt nicht für einen vorhandenen Cluster.

  • Sie können diese Konfiguration nur auf die gesamte Plattform anwenden. Sie können die globale Konfiguration auf Produktebene nicht überschreiben.

Externe OCI-konforme Registrierungskonfiguration

Um eine externe OCI-konforme Registrierung zu konfigurieren, aktualisieren Sie die folgenden Parameter in der Datei input.json :

Tasten

Wert

registries.docker.url

Standardwert: registry.uipath.com

Die URL oder der FQDN der Registrierung, die von der Automation Suite zum Hosten der Container-Images verwendet werden soll.

registries.docker.username

registries.docker.password

Authentifizierungsinformationen, die zum Abrufen der Docker-Images aus der Registrierung verwendet werden sollen.

Wenn einer der Werte in der Eingabedatei gefunden wird, müssen Sie beide beim Konfigurieren der externen Registrierung angeben.

registries.docker.pull_secret_value

Das Pull-Geheimnis der Registrierung.

registries.helm.url

Standardwert: registry.uipath.com

Die URL oder der FQDN der Registrierung, die von der Automation Suite zum Hosten des Helm-Charts des Dienstes verwendet werden soll.

registries.helm.username

registries.helm.password

Authentifizierungsinformationen, die zum Abrufen von Helm-Charts aus der Registrierung verwendet werden sollen.

Wenn einer der Werte in der Eingabedatei gefunden wird, müssen Sie beide beim Konfigurieren der externen Registrierung angeben.

registry_ca_cert

Der Speicherort der Zertifizierungsstellendatei, die dem für die Registrierung konfigurierten Zertifikat entspricht.

Wenn die Registrierung von einer privaten Zertifizierungsstelle signiert wird, die bei Ihnen vor Ort gehostet wird, müssen Sie sie angeben, um die Vertrauensstellung herzustellen.

Hinweis:
Sie können verschiedene Methoden verwenden, um die codierte Version der pull_secret_value zu generieren, einschließlich derer, die Docker verwenden. Weitere Informationen finden Sie unter.

Das folgende Konfigurationsbeispiel zeigt ein typisches OCI-konformes Registrierungssetup:

{
    "registries": {
        "docker": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password", 
            "pull_secret_value": "pull-secret-value"
        },
        "helm": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password"
        },
        "trust": {
            "enabled": true,
            "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",
            "detection_mode": false
        }
    },
    "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}{
    "registries": {
        "docker": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password", 
            "pull_secret_value": "pull-secret-value"
        },
        "helm": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password"
        },
        "trust": {
            "enabled": true,
            "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",
            "detection_mode": false
        }
    },
    "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}
Hinweis: Bei Registrierungen wie Harbor, die die Verwendung eines Projekts erfordern, müssen Sie den Projektnamen an die Registrierungs-URL anfügen. Die Anforderung gilt für die Parameter registries.docker.url und registries.helm.url in der Datei input.json , wie im folgenden Beispiel gezeigt:
{
  "registries": {
    "docker": {
      "url": "registry.domain.io/myproject",
      "username": "username",
      "password": "password"
      "pull_secret_value": "pull-secret-value"
    },
    "helm": {
      "url": "registry.domain.io/myproject",
      "username": "username",
      "password": "password"
    }
    "trust": {  
        "enabled": true,  
        "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",  
        "detection_mode": false  
    }
  },
  "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}{
  "registries": {
    "docker": {
      "url": "registry.domain.io/myproject",
      "username": "username",
      "password": "password"
      "pull_secret_value": "pull-secret-value"
    },
    "helm": {
      "url": "registry.domain.io/myproject",
      "username": "username",
      "password": "password"
    }
    "trust": {  
        "enabled": true,  
        "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",  
        "detection_mode": false  
    }
  },
  "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}

Benutzerdefinierte Namespace-Konfiguration

Sie können einen einzelnen benutzerdefinierten Namespace angeben, der die standardmäßigen Namespaces uipath, uipath-check und uipath-installer ersetzt. Um einen benutzerdefinierten Namespace zu definieren, geben Sie einen Wert für den optionalen Parameter namespace an. Wenn Sie keinen Wert für den Parameter namespace angeben, werden stattdessen die Standard-Namespaces verwendet.

Benutzerdefinierte Namespace-Bezeichnungskonfiguration

Wenn die UiPath-Namespaces benutzerdefinierte Namespace-Beschriftungen enthalten sollen, fügen Sie den folgenden Abschnitt zur Datei input.json hinzu. Stellen Sie sicher, dass Sie Ihre eigenen Beschriftungen hinzufügen.
 "namespace_labels": {
		"install-type": "aksoffline",
		"uipathctlversion": "rc-10_0.1",
		"updatedLabel": "rerun"
	}, "namespace_labels": {
		"install-type": "aksoffline",
		"uipathctlversion": "rc-10_0.1",
		"updatedLabel": "rerun"
	},

Benutzerdefinierte Konfiguration der Knotentoleranz

Wenn Sie benutzerdefinierte Markierungen und Toleranzen auf den Knoten benötigen, auf denen Sie die Automation Suite installieren möchten, aktualisieren Sie input.json mit den folgenden Flags. Stellen Sie sicher, dass Sie die entsprechenden Werte für das spec-Feld angeben.
"tolerations": [
  {
    "spec": {
      "key": "example-key", 
      "operator": "Exists",
      "value": "optional-value",
      "effect": "NoSchedule"
    }
  },
  {
    "spec": {
      "key": "example-key2", 
      "operator": "Exists",
      "value": "optional-value2",
      "effect": "NoSchedule"
    }
  }
]"tolerations": [
  {
    "spec": {
      "key": "example-key", 
      "operator": "Exists",
      "value": "optional-value",
      "effect": "NoSchedule"
    }
  },
  {
    "spec": {
      "key": "example-key2", 
      "operator": "Exists",
      "value": "optional-value2",
      "effect": "NoSchedule"
    }
  }
]

Konfiguration des internen Lastausgleichs

Sie können einen internen Lastausgleich für Ihre Bereitstellung im AKS- sowie im EKS-Installationstyp verwenden. Dazu müssen Sie dies im Abschnitt ingress der Datei input.json angeben.
Details zum Feld AKS internal load balancer configuration field details:
ParameterBeschreibung
azure-load-balancer-internalGibt an, ob der Lastausgleich intern ist.
Details zum Feld EKS internal load balancer configuration field details:
  
aws-load-balancer-backend-protocolGibt das Backend-Protokoll an.
aws-load-balancer-nlb-target-typeGibt den Zieltyp zur Konfiguration für den NLB an. Sie können zwischen instance und ip wählen.
aws-load-balancer-schemeGibt an, ob der NLB mit dem Internet verbunden oder intern ist. Gültige Werte sind internal oder internet-facing. Wenn nicht angegeben, gilt der Standardwert internal.
aws-load-balancer-typeGibt den Typ des Lastausgleichs an. Dieses Steuerelement gleicht die Dienstressourcen ab, bei denen diese Option entweder auf nlb oder external festgelegt ist.
aws-load-balancer-internalGibt an, ob der NLB mit dem Internet verbunden oder intern ist.

AKS-Beispiel

 "ingress": {
    "service_annotations": {
      "service.beta.kubernetes.io/azure-load-balancer-internal": "true"
    }
  }, "ingress": {
    "service_annotations": {
      "service.beta.kubernetes.io/azure-load-balancer-internal": "true"
    }
  },

EKS-Beispiel

  "ingress": {
    "service_annotations": {
      "service.beta.kubernetes.io/aws-load-balancer-backend-protocol": "ssl",
      "service.beta.kubernetes.io/aws-load-balancer-nlb-target-type": "ip",
      "service.beta.kubernetes.io/aws-load-balancer-scheme": "internal",
      "service.beta.kubernetes.io/aws-load-balancer-type": "nlb",
      "service.beta.kubernetes.io/aws-load-balancer-internal": "true"
    }
  },  "ingress": {
    "service_annotations": {
      "service.beta.kubernetes.io/aws-load-balancer-backend-protocol": "ssl",
      "service.beta.kubernetes.io/aws-load-balancer-nlb-target-type": "ip",
      "service.beta.kubernetes.io/aws-load-balancer-scheme": "internal",
      "service.beta.kubernetes.io/aws-load-balancer-type": "nlb",
      "service.beta.kubernetes.io/aws-load-balancer-internal": "true"
    }
  },
Weitere Informationen zum Erstellen interner Lastausgleiche in AKS und EKS finden Sie unter den folgenden Links:

Konfiguration der Workload-Identität

Workload Identity ist eine Variante der verwalteten Identität, die verfügbar ist, wenn Sie die Automation Suite in AKS verwenden. Workload Identity hilft Ihnen, die Verwaltung von Anmeldeinformationen zu vermeiden, indem Sie Pods in die Lage versetzen, eine Kubernetes-Identität zu verwenden, z. B. ein Dienstkonto. Workload Identity ermöglicht Kubernetes-Anwendungen auch den sicheren Zugriff auf Azure-Ressourcen mit Microsoft Entra ID, basierend auf Dienstkonten mit Anmerkungen.

Weitere Informationen zur Workload-Identität finden Sie unter Verwenden einer Microsoft Entra-Workload-ID in AKS – Azure Kubernetes Service.

Hinweis:

Insights und Task Mining unterstützen derzeit keine Workload-Identität.

Führen Sie die folgenden Schritte aus, um Workload Identity zu verwenden:

  1. Aktivieren Sie die Workload Identity und den OIDC-Aussteller für den Cluster, rufen Sie die URL des OIDC-Ausstellers ab und erstellen Sie eine vom Benutzer zugewiesene verwaltete Identität, die in der Workload Identity verwendet wird. Um diese Vorgänge auszuführen, befolgen Sie die Anweisungen unter Bereitstellen und Konfigurieren eines AKS-Clusters mit Workload-Identität – Azure Kubernetes Service.
  2. Speichern Sie die Client-ID der vom Benutzer zugewiesenen verwalteten Identität und geben Sie sie in Ihrer input.json -Datei an.
    {
      ...
      "pod_identity" : {
        "enabled": true,
        "aks_managed_identity_client_id":<client-id>,
      }
      ...
    }{
      ...
      "pod_identity" : {
        "enabled": true,
        "aks_managed_identity_client_id":<client-id>,
      }
      ...
    }
  3. Führen Sie das folgende Skript aus, das die Verbundanmeldeinformationen für alle Dienstkonten erstellt, die wir für die Automation Suite erstellen:
    #!/bin/bash
    
    # Variables
    RESOURCE_GROUP="<resource-group-name>"
    USER_ASSIGNED_IDENTITY_NAME="<user-assigned-identity-name>"
    AKS_OIDC_ISSUER="<aks-oidc-issuer>"
    AUDIENCE="api://AzureADTokenExchange"
    
    # Helper function to create federated credentials
    create_federated_credentials() {
      local NAMESPACE=$1
      shift
      local SERVICE_ACCOUNTS=("$@")
    
      for SERVICE_ACCOUNT_NAME in "${SERVICE_ACCOUNTS[@]}"; do
        # Generate a unique federated identity credential name
        FEDERATED_IDENTITY_CREDENTIAL_NAME="${NAMESPACE}-${SERVICE_ACCOUNT_NAME}"
    
        echo "Creating federated credential for namespace: ${NAMESPACE}, service account: ${SERVICE_ACCOUNT_NAME}"
    
        # Run the Azure CLI command
        az identity federated-credential create \
          --name "${FEDERATED_IDENTITY_CREDENTIAL_NAME}" \
          --identity-name "${USER_ASSIGNED_IDENTITY_NAME}" \
          --resource-group "${RESOURCE_GROUP}" \
          --issuer "${AKS_OIDC_ISSUER}" \
          --subject "system:serviceaccount:${NAMESPACE}:${SERVICE_ACCOUNT_NAME}" \
          --audience "${AUDIENCE}"
    
        if [ $? -eq 0 ]; then
          echo "Federated credential created successfully for ${NAMESPACE}:${SERVICE_ACCOUNT_NAME}"
        else
          echo "Failed to create federated credential for ${NAMESPACE}:${SERVICE_ACCOUNT_NAME}"
        fi
      done
    }
    
    
    # Call the function for each namespace and its service accounts
    create_federated_credentials "uipath" "default" "asrobots-sa" "taskmining-client" "dataservice-be-service-account" "dataservice-fe-service-account" "insights-adf" "du-documentmanager-service-account" "services-configure-uipath-ba" "aicenter-jobs" "aicenter-deploy" "ailoadbalancer-service-account" "airflow"
    create_federated_credentials "uipath-check" "default"
    create_federated_credentials "velero" "velero-server"#!/bin/bash
    
    # Variables
    RESOURCE_GROUP="<resource-group-name>"
    USER_ASSIGNED_IDENTITY_NAME="<user-assigned-identity-name>"
    AKS_OIDC_ISSUER="<aks-oidc-issuer>"
    AUDIENCE="api://AzureADTokenExchange"
    
    # Helper function to create federated credentials
    create_federated_credentials() {
      local NAMESPACE=$1
      shift
      local SERVICE_ACCOUNTS=("$@")
    
      for SERVICE_ACCOUNT_NAME in "${SERVICE_ACCOUNTS[@]}"; do
        # Generate a unique federated identity credential name
        FEDERATED_IDENTITY_CREDENTIAL_NAME="${NAMESPACE}-${SERVICE_ACCOUNT_NAME}"
    
        echo "Creating federated credential for namespace: ${NAMESPACE}, service account: ${SERVICE_ACCOUNT_NAME}"
    
        # Run the Azure CLI command
        az identity federated-credential create \
          --name "${FEDERATED_IDENTITY_CREDENTIAL_NAME}" \
          --identity-name "${USER_ASSIGNED_IDENTITY_NAME}" \
          --resource-group "${RESOURCE_GROUP}" \
          --issuer "${AKS_OIDC_ISSUER}" \
          --subject "system:serviceaccount:${NAMESPACE}:${SERVICE_ACCOUNT_NAME}" \
          --audience "${AUDIENCE}"
    
        if [ $? -eq 0 ]; then
          echo "Federated credential created successfully for ${NAMESPACE}:${SERVICE_ACCOUNT_NAME}"
        else
          echo "Failed to create federated credential for ${NAMESPACE}:${SERVICE_ACCOUNT_NAME}"
        fi
      done
    }
    
    
    # Call the function for each namespace and its service accounts
    create_federated_credentials "uipath" "default" "asrobots-sa" "taskmining-client" "dataservice-be-service-account" "dataservice-fe-service-account" "insights-adf" "du-documentmanager-service-account" "services-configure-uipath-ba" "aicenter-jobs" "aicenter-deploy" "ailoadbalancer-service-account" "airflow"
    create_federated_credentials "uipath-check" "default"
    create_federated_credentials "velero" "velero-server"

Informationen zur Verwendung der Workload Identity mit SQL finden Sie unter Workload Identity-basierter Zugriff auf SQL über AKS.

Informationen zur Verwendung der Workload Identity mit Ihrem Speicherkonto finden Sie unter Workloadidentitätsbasierter Zugriff auf Ihr Speicherkonto über AKS.

Hinweis:
Wenn SQL Server nicht zur Unterstützung der Workload-Identitäts-basierten Authentifizierung konfiguriert ist, legen Sie enable_sql_wi für jede Komponente, die eine Verbindung mit SQL herstellt, auf false fest.
Das folgende Beispiel zeigt die Konfiguration für Document Understanding:
"documentunderstanding": {
  "enabled": true,
  "enable_sql_wi": false
}"documentunderstanding": {
  "enabled": true,
  "enable_sql_wi": false
}

Spezifische Orchestrator-Konfiguration

Der Orchestrator kann Roboterprotokolle auf einem Elasticsearch-Server speichern. Sie können diese Funktion im Abschnitt orchestrator.orchestrator_robot_logs_elastic konfigurieren. Wenn nicht angegeben, werden Roboterprotokolle in der Orchestrator-Datenbank gespeichert.
In der folgenden Tabelle sind die orchestrator.orchestrator_robot_logs_elastic-Parameter aufgeführt:

Parameter

Beschreibung

orchestrator_robot_logs_elastic

Elasticsearch-Konfiguration.

elastic_uri

Die Adresse der Elasticsearch-Instanz, die verwendet werden soll. Sie muss in Form eines URI bereitgestellt werden. Wenn angegeben, sind auch Benutzername und Kennwort erforderlich.

elastic_auth_username

Der Elasticsearch-Benutzername, der für die Authentifizierung verwendet wird.

elastic_auth_password

Das Elasticsearch-Kennwort, das für die Authentifizierung verwendet wird.

Insights-spezifische Konfiguration

Wenn sie Insights aktivieren, können Benutzer die SMTP-Serverkonfiguration einschließen, die zum Senden geplanter E-Mails/Warnungs-E-Mails verwendet wird. Wenn sie fehlt, funktionieren die geplanten E-Mails und die Warnungs-E-Mails nicht.

Sie können das uipathctl -Befehlszeilentool verwenden, um Konfigurationsänderungen zu übernehmen. Weitere Informationen finden Sie im uipathctl-Referenzhandbuch.
Details zu den insights.smtp_configuration-Feldern:

Parameter

Beschreibung

tls_version

Gültige Namen: TLSv1_2, TLSv1_1, SSLv23. Lassen Sie den Schlüssel ganz weg, wenn Sie TLS nicht verwenden.

from_email

Adresse, von der Warnungs-/Termin-E-Mails gesendet werden.

host

Hostname des SMTP-Servers.

port

Der Port des SMTP-Servers.

username

Benutzername für die SMTP-Serverauthentifizierung.

password

Kennwort für die SMTP-Serverauthentifizierung.

enable_realtime_monitoringFlag, um die Insights-Echtzeitüberwachung zu aktivieren. Gültige Werte sind true und false. Der Standardwert ist false.

Beispiel

"insights": {
    "enabled": true,
    "enable_realtime_monitoring": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }"insights": {
    "enabled": true,
    "enable_realtime_monitoring": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }

Process Mining-spezifische Konfiguration

Wenn Sie Process Mining aktivieren, empfehlen wir Benutzern, einen ZWEITEN SQL-Server anzugeben, der als Data Warehouse fungiert, das vom primären Automation Suite-SQL-Server getrennt ist. Der Data Warehouse SQL-Server wird stark belastet und kann im Abschnitt processmining konfiguriert werden:

Parameter

Beschreibung

sql_connection_str

DotNet-formatierte Verbindungszeichenfolge mit Datenbank als Platzhalter: Initial Catalog=DB_NAME_PLACEHOLDER .

airflow.metadata_db_connection_str

Hinweis: Dies gilt für die PostgreSQL-Datenbank AutomationSuite Airflow und wird für Version 2024.10.3 oder höher empfohlen.
Sqlalchemy PSYCOPG2-formatierte Verbindungszeichenfolge für die benutzerdefinierte Airflow-Metadaten-Datenbank: PostgreSQL:5432/DB_NAME_PLACEHOLDER.

Beispiel:

postgresql+psycopg2://testadmin:<password>@postgres.company.com:5432/DB_NAME_PLACEHOLDER

Hinweis:
Sie können auch die metadata_db_connection_str im Abschnitt processmining auf globaler Ebene in der cluster_config.json verwenden, um den Wert für die Airflow-Metadatenbank bereitzustellen. In diesem Fall ist airflow.metadata_db_connection_str optional.
"processmining": {
  "enabled": true,
  "app_security_mode": "system_managed",
  "airflow": {
    "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
  }
}
"processmining": {
  "enabled": true,
  "app_security_mode": "system_managed",
  "airflow": {
    "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
  }
}

sqlalchemy_pyodbc_sql_connection_str

Hinweis:
Dies gilt nur für die Microsoft SQL Server-Datenbank AutomationSuite Airflow und kann ab Version 2025.10 nicht mehr verwendet werden.
Sqlalchemy PYODBC-formatierte Verbindungszeichenfolge für die benutzerdefinierte Airflow-Metadaten-Datenbank: sqlServer:1433/DB_NAME_PLACEHOLDER.

Beispiel:

mssql+pyodbc://testadmin%40myhost:mypassword@myhost:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES

Wo

Benutzer: testadmin%40myhost
Hinweis:

Wenn „@“ im Benutzernamen vorhanden ist, muss er auf %40 URL-codiert werden

Beispiel: (SQL Server-Setup mit Kerberos-Authentifizierung)

mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes

warehouse.sql_connection_str

DotNet-formatierte SQL-Verbindungszeichenfolge zum Processmining Data Warehouse SQL-Server mit Platzhalter für dbname:

Initial Catalog=DB_NAME_PLACEHOLDER.

warehouse.sqlalchemy_pyodbc_sql_connection_str

Sqlalchemy PYODBC-formatierte SQL-Verbindungszeichenfolge zum Processmining-Data-Warehouse-SQL-Server mit Platzhalter für Datenbankname:

sqlServer:1433/DB_NAME_PLACEHOLDER.

warehouse.master_sql_connection_str

Wenn das Installationsprogramm Datenbanken über die Einstellung sql.create_db: true erstellt, muss eine DotNet-formatierte Master SQL-Verbindungszeichenfolge für den Process Mining Data Warehouse SQL-Server bereitgestellt werden. Eine Datenbank in der Verbindungszeichenfolge muss als master festgelegt werden.
Beispiel einer Process Mining-Verbindungszeichenfolge mit PostgreSQL für AutomationSuite_Airflow
"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "airflow": {
      "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
    },
    "warehouse": {
      "sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=AutomationSuite_Warehouse;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin:<password>@kerberossql.autosuitead.local:1433/AutomationSuite_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;""processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "airflow": {
      "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
    },
    "warehouse": {
      "sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=AutomationSuite_Warehouse;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin:<password>@kerberossql.autosuitead.local:1433/AutomationSuite_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"

Beispiel für eine Process Mining-Verbindungszeichenfolge mit Microsoft SQL Server für AutomationSuite_Airflow
"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "warehouse": {
        "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
	    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>:@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
        "master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
    "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",  
},"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "warehouse": {
        "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
	    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>:@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
        "master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
    "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",  
},
Hinweis:
Verwenden Sie bei Verwendung der Kerberos-Authentifizierung die Parameter Integrated Security und Trusted_Connection . Wenn Sie Integrated Security auf true und Trusted_Connection auf yes setzen, werden die Anmeldeinformationen des aktuell angemeldeten Benutzers für die Verbindung verwendet. In diesem Fall müssen Sie keinen separaten Benutzernamen und kein Kennwort angeben.
Wichtig:
Wenn Sie Microsoft SQL Server für die AutomationSuite_Airflow -Datenbank verwenden, stellen Sie sicher, dass Sie die folgenden Anforderungen erfüllen.
  • Stellen Sie sicher, dass die Zeitzone der SQL Server-Maschine, auf der die Airflow-Datenbank installiert ist, auf UTC eingestellt ist.

  • Sie müssen den Standardserverport 1433 für Airflow-Datenbankverbindungen verwenden. Nicht standardmäßige SQL Server-Ports werden nicht unterstützt.
Achtung:

Beim Konfigurieren der Verbindungszeichenfolgen für den Process Mining Data Warehouse SQL-Server sollte die benannte Instanz des SQL-Servers weggelassen werden.

Benannte Instanzen von SQL Server können nicht auf demselben TCP-Port ausgeführt werden. Daher reicht die Portnummer allein aus, um zwischen Instanzen zu unterscheiden.

Verwenden Sie beispielsweise tcp:server,1445 anstelle von tcp:server\namedinstance,1445.
Wichtig:
Beachten Sie, dass die Namen für die PYODBC-Verbindungszeichenfolge postgresql_connection_string_template_sqlalchemy_pyodbc (für PostgreSQL) bzw. sql_connection_string_template_sqlalchemy_pyodbc (für MS SQL Server) und die PYODBC-Verbindungszeichenfolge sqlalchemy_pyodbc_sql_connection_str , die Sie verwenden, wenn Sie Ihre eigene Datenbank mitbringen, unterschiedlich sind. Auch die Namen der Verbindungszeichenfolgen für die SQL-Vorlagen sql_connection_string_template und sql_connection_str die verwendet werden, wenn Sie Ihre eigene Datenbank mitbringen, sind unterschiedlich.
Wichtig:
Wenn Sie Ihre eigene Datenbank mitbringen und diese mithilfe der Verbindungszeichenfolgen sql_connection_str und sqlalchemy_pyodbc_sql_connection_str oder airflow.metadata_db_connection_str im Abschnitt processmining der Datei input.jsonkonfiguriert haben, dann werden die Vorlagenverbindungszeichenfolgen sql_connection_string_template und postgresql_connection_string_template_sqlalchemy_pyodbc ( für PostgreSQL) bzw. sql_connection_string_template_sqlalchemy_pyodbc (für MS SQL Server) werden ignoriert, wenn angegeben.

Spezifische Konfiguration für Automation Suite Robots

Automation Suite-Roboter können Paket-Caching verwenden, um Ihre Prozessausführungen zu optimieren und ihnen eine schnellere Ausführung zu ermöglichen. NuGet-Pakete werden aus dem Dateisystem abgerufen, anstatt aus dem Internet/Netzwerk heruntergeladen zu werden. Dies erfordert einen zusätzlichen Speicherplatz von mindestens 10 GB und sollte einem Ordner im Dateisystem der Hostmaschine der dedizierten Knoten zugewiesen werden.

Um die Paketzwischenspeicherung zu aktivieren, müssen Sie die folgenden input.json-Parameter aktualisieren:

Parameter

Standardwert

Beschreibung

packagecaching

true

Wenn auf true festgelegt, verwenden Roboter einen lokalen Cache für die Paketauflösung.

packagecachefolder

/uipath_asrobots_package_cache

Der Speicherort auf dem serverlosen Agent-Knoten, auf dem die Pakete gespeichert sind.

AI Center-spezifische Konfiguration

Dieser Abschnitt gilt nur für S3-Endpunkte (nicht für Azure Storage erforderlich).

Damit das AI Center ordnungsgemäß funktioniert, müssen Sie die Parameter aicenter.external_object_storage.port und aicenter.external_object_storage.fqdn in der Datei input.jsonkonfigurieren.
Hinweis: Sie müssen die Parameter im Abschnitt aicenter der Datei input.jsonkonfigurieren, auch wenn Sie den Abschnitt external_object_storage der Datei konfiguriert haben.
Das folgende Beispiel zeigt eine gültige input.json-Konfiguration für das AI Center:
"aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
..."aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
...

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo
Vertrauen und Sicherheit
© 2005–2026 UiPath. Alle Rechte vorbehalten