automation-suite
2021.10
false
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde.
Automation Suite-Installationsanleitung
Last updated 26. Aug. 2024

Konfigurieren der Maschinen

Konfigurieren des Datenträgers

Wichtig:
  • Um Datenverluste zu vermeiden, stellen Sie sicher, dass die von Ihnen verwendete Infrastruktur die Clusterlaufwerke beim Neustart oder Herunterfahren des Clusters nicht automatisch löscht. Wenn diese Funktion aktiviert ist, deaktivieren Sie sie.
  • Um eine reibungslose und unterbrechungsfreie SSH-Sitzung sicherzustellen, empfehlen wir dringend, die Schritte in den Installationsempfehlungen zu befolgen, bevor Sie die Datenträger konfigurieren und die Automation Suite installieren.
Sie können die Datenträger mit dem Skript configureUiPathDisks.sh konfigurieren und partitionieren. Weitere Informationen finden Sie in den folgenden Abschnitten.

Datenträger-Voraussetzungen

Vor der Installation müssen Sie den Datenträger mit LVM partitionieren und konfigurieren, damit ihre Größe einfach und ohne Datenmigration oder Datenverlust geändert werden kann.

Datenträgerpartitionierung

Dies ist erforderlich, da die Standardpartitionierungsstruktur auf RHEL-Maschinen nicht für die Installation von Kubernetes geeignet ist. Das liegt daran, dass die Kubernetes-Infrastruktur normalerweise auf der /var-Partition installiert wird. Standardmäßig werden der var-Partition nur 8 GiB Speicherplatz zugewiesen.
Hinweis:
Das unterstützte Format für den Datenträger ist ext4 oder xfs.

Alle Partitionen müssen mit LVM erstellt werden. Dies soll gewährleisten, dass sich Clusterdaten auf einem anderen Datenträger befinden können aber dennoch kohärent angezeigt werden. Dies hilft auch, die Partitionsgröße in der Zukunft zu erhöhen, ohne dass das Risiko von Datenmigration oder Datenverlust besteht.

Für das RHEL-Betriebssystem müssen Sie sicherstellen, dass Sie über die folgenden minimalen Mount-Punkt-Größen auf der Maschine verfügen.

Online

Datenträgerbezeichnung

Partition

Größe

Zweck

Clusterlaufwerk

/var/lib/rancher

190 GiB

Der Rancher-Ordner speichert Container-Images und -Ebenen

/var/lib/kubelet

56 GiB

Der Kubelet-Ordner speichert Kubernetes-Laufzeitkonfigurationen wie Secrets, Configmaps und emptyDir

/opt/UiPathAutomationSuite

10 GiB

Installationsprogramm-Binärdatei

etcd-Datenträger

/var/lib/rancher/rke2/server/db

16 GiB

Verteilte Datenbank für Kubernetes

DataDisk

/datadisk

512 GiB (Einfache Installation)

Blockspeicher-Abstraktion

2 TiB (Vollständige Installation)

Hinweis:
Wir empfehlen, nicht den Betriebssystemdatenträger für die oben genannten Zwecke zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
Offline
Hinweis:

Die Voraussetzungen für offline sind dieselben wie für online, mit Ausnahme der ersten Maschine, auf der Sie die Installation ausführen. Für sie gelten die folgenden Anforderungen.

Der zusätzliche Speicherplatz ist erforderlich, um das Offlinepaket zu entpacken.

Datenträgerbezeichnung

Partition

Größe

Zweck

Clusterlaufwerk

/var/lib/rancher

190 GiB

Der Rancher-Ordner speichert Container-Images und -Ebenen

/var/lib/kubelet

56 GiB

Der Kubelet-Ordner speichert Kubernetes-Laufzeitkonfigurationen wie Secrets, Configmaps und emptyDir

/opt/UiPathAutomationSuite

10 GiB

Installationsprogramm-Binärdatei

etcd-Datenträger

/var/lib/rancher/rke2/server/db

16 GiB

Verteilte Datenbank für Kubernetes

DataDisk

/datadisk

512 GiB (Einfache Installation)

Blockspeicher-Abstraktion

2 TiB (Vollständige Installation)

Datenträger für das UiPath Paket

/uipath

512 GiB

Air-Gap-Paket

Hinweis:
Wir empfehlen, nicht den Betriebssystemdatenträger für die oben genannten Zwecke zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
Hinweis:

Daten und etcd-Datenträger müssen separate physische Datenträger sein. Dadurch werden die Daten und etcd-Datenträger physisch von anderen Cluster-Workloads und -Aktivitäten isoliert und gleichzeitig die Leistung und Stabilität des Clusters verbessert.

Im folgenden Abschnitt finden Sie Details zur Verwendung des Beispielskripts zur Partitionierung und Konfiguration des Datenträgers vor der Installation.

Verwenden des Skripts zum Konfigurieren des Datenträgers

Herunterladen des Skripts

Hinweis: Bei Offlineinstallationen müssen Sie diesen Schritt auf einer Maschine mit Internetzugang und zu den Air-Gap-Maschinen ausführen, auf denen die Automation Suite bereitgestellt wird. Kopieren Sie die Datei von der Onlinemaschine auf die Zielmaschine.
Sie können das configureUiPathDisks.sh-Skript verwenden, um die Festplatte zu konfigurieren und zu partitionieren.

Anweisungen zum Herunterladen finden Sie unter ConfigureUiPathDisks.sh.

Ausführen des Skripts

Sie können das configureUiPathDisks.sh-Skript für die folgenden Zwecke verwenden:
  • Konfigurieren der Datenträger und Mount-Punkte für eine neue Automation Suite-Clusterinstallation;
  • Ändern der Größe des Datenträgers nach der Installation.

Um das Skript ausführbar zu machen, führen Sie Folgendes aus:

chmod +x ./configureUiPathDisks.shchmod +x ./configureUiPathDisks.sh

Um weitere Details zur Skriptnutzung zu erhalten, führen Sie den folgenden Befehl aus:

sudo ./configureUiPathDisks.sh --helpsudo ./configureUiPathDisks.sh --help
***************************************************************************************

Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk

Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc
  -b|--bundle-disk-name           Device to host the uipath bundle. 
                                    Only required for offline installation on 1st server node 
  -f|--complete-suite             Installing complete product suite or any of these products: 
                                    aicenter, apps, taskmining, documentunderstanding. 
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume               
  -d|--debug                      Run in debug
  -h|--help                       Display help

ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd

  configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
******************************************************************************************************************************************************************************

Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk

Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc
  -b|--bundle-disk-name           Device to host the uipath bundle. 
                                    Only required for offline installation on 1st server node 
  -f|--complete-suite             Installing complete product suite or any of these products: 
                                    aicenter, apps, taskmining, documentunderstanding. 
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume               
  -d|--debug                      Run in debug
  -h|--help                       Display help

ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd

  configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************

Konfigurieren des Datenträgers für eine Auswertungseinrichtung mit einem einzelnen Knoten

Online

Um den Datenträger bei einer Online-Auswertungseinrichtung mit einem einzelnen Knoten zu konfigurieren, führen Sie den folgenden Befehl auf der Maschine aus:

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk

Offline

Bei einer Offlineinstallation müssen Sie die Abbilder des Produkts in die Docker-Registrierung laden. Dazu ist ein zusätzlicher Speicher in Form eines separaten Datenträgers erforderlich, um das UiPath-Produktpaket zu hosten.

Um den Datenträger bei einer Offline-Auswertungseinrichtung mit einem einzelnen Knoten zu konfigurieren, führen Sie den folgenden Befehl auf der Maschine aus:

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline
Hinweis: Wenn Sie über einen zusätzlichen Agenten-Knoten für Task Mining oder eine GPU verfügen, wird auf diesem Knoten nur einen Cluster-Datenträger benötigt. Sie können das Skript ausführen, indem Sie den Namen des Cluster-Datenträgers angeben und den Knotentyp als Agenten angeben.

Erweitern des Datenträgers nach der Installation

Um den Datenträger zu erweitern, können Sie den neuen physischen Datenträger anschließen oder die Größe des vorhandenen Datenträgers ändern.

Hinzufügen eines neuen Datenträgers

Um den Datenträger mithilfe des neu angefügten Datenträgers zu erweitern, führen Sie den folgenden Befehl auf der Servermaschine aus:

./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk

Ändern der Größe des vorhandenen Datenträgers

Um den Datenträger durch Ändern der Größe eines vorhandenen Datenträgers zu erweitern, führen Sie den folgenden Befehl auf der Servermaschine aus:

./configureUiPathDisks.sh --extend-data-disk --resize./configureUiPathDisks.sh --extend-data-disk --resize

Validieren von Laufwerk-Mounts

  1. Führen Sie die folgenden Schritte aus, um zu überprüfen, ob /etc/fstab korrekt so konfiguriert ist, dass der Neustart des Systems bewältigt werden kann.
    Hinweis:
    Stellen Sie sicher, dass Etcd- und DataDisk-Mountpunkte in der Datei fstab stehen.
    Wenn Sie eine separate Festplattenpartition für /var/lib/rancher und /var/lib/kubelet haben, dann sollte fstab auch diese beiden Ordner enthalten. Stellen Sie auch sicher, dass Sie die Option nofail in die fstab-Einträge aufnehmen, damit sie sich im Falle von Fehlern nicht auf das Booten der VM auswirkt.
  2. Überprüfen Sie, ob die Datenträger korrekt bereitgestellt werden, indem Sie den folgenden Befehl ausführen:
    mount -afvmount -afv
  3. Es sollte die folgende Antwort kommen:
    /datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted/datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted

Konfigurieren von Einstellungen auf Kernel- und Betriebssystemebene

Die folgende Seite hilft Linux-Administratoren bei der Verwaltung von Einstellungen auf Betriebssystem- und Kernel-Ebene, bevor sie eine Automation Suite-Installation durchführen.

Normalerweise werden diese Einstellungen über ein spezielles Verwaltungskonfigurationstool verwaltet, z. B. Puppet. Stellen Sie aus Konsistenz- und Dokumentationsgründen sicher, dass Ihre vorgenommenen Änderungen mit dem Steuerungsprozess Ihrer Umgebung übereinstimmen.

Wichtig:

Sie müssen die folgenden Schritte ausführen, bevor Sie die Installation starten, da Fehlkonfigurationen auf Betriebssystem- und Kernel-Ebene zu unerklärlichen Fehlern führen können. Durch die Überprüfung dieser spezifischen Einstellungen können solche Fehler oft vermieden werden.

Konfigurieren der „sysctl“-Einstellungen

Folgende sysctl-Einstellungen sind auf der Maschine erforderlich:
  • IP-Weiterleitung aktivieren

  • Deaktivieren der umgekehrten Pfadfilterung

Dazu können Sie den folgenden Befehl ausführen:

cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOFcat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
Hinweis: nf-call-iptables wird für die meisten Kubernetes-Bereitstellungen benötigt. Kubernetes erstellt virtuelle Netzwerke innerhalb des Clusters. Dadurch kann jeder Pod eine eigene IP-Adresse haben, die in Verbindung mit den internen Namensdiensten verwendet wird, um die Kommunikation zwischen den Diensten zu erleichtern. Der Cluster funktioniert nicht, wenn nf-call-iptables nicht aktiviert ist. Weitere Informationen finden Sie in der offiziellen Kubernetes-Dokumentation.

Führen Sie den folgenden Befehl aus, um die Einstellungen zu übernehmen:

sysctl --systemsysctl --system

Konfigurieren von fapolicy-Einstellungen

Bei Verwendung von fapolicy ist eine RKE2-spezifische Richtlinie erforderlich. Um diese zu generieren, verwenden Sie den folgenden Befehl:

cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOFcat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
Hinweis:

Stellen Sie sicher, dass die Änderung Ihrem Linux-Team mitgeteilt wird und die erforderlichen Konfigurationsverwaltungsprozesse durchläuft.

Konfigurieren von noexec- und nosuid-Einstellungen

Für die Datenträger, die für die /var/lib/rancher-Bereitstellung verwendet werden, dürfen weder noexec noch nosuid festgelegt sein. Das Datenträgertool erstellt diese Bereitstellungen automatisch ohne diese Eigenschaften.
Wichtig:

Wenn ein Linux-Administrator diese Eigenschaften manuell festlegt, funktioniert die Instanz nicht mehr.

Weitere Informationen zur Datenträgerkonfiguration finden Sie unter Datenträger-Voraussetzungen.

Aktivieren von Ports

Stellen Sie sicher, dass für jede Quelle die folgenden Ports in der Firewall aktiviert sind.

Port

Protokoll

Quelle

Zweck

Anforderungen

22

TCP

Jump Server/Clientmaschine

Für SSH (Installation, Fehlerbehebung bei der Clusterverwaltung)

Öffnen Sie diesen Port nicht für das Internet. Lassen Sie Zugriff auf die Clientmaschine bzw. den Jump Server zu.

80

TCP

 

Nur Offlineinstallation: erforderlich zum Senden von System-E-Mail-Benachrichtigungen.

 

443

TCP

Alle Knoten in einem Cluster + Lastenausgleich

Bei HTTPS (Zugriff auf die Automation Suite)

Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster und dem Lastenausgleich verfügen.

587

TCP

 

Nur Offlineinstallation: erforderlich zum Senden von System-E-Mail-Benachrichtigungen.

 

Wenn Sie Task Mining aktiviert und einen dedizierten Task Mining-Knoten bereitgestellt bzw. einen dedizierten Knoten mit GPU-Unterstützung bereitgestellt haben, stellen Sie sicher, dass zusätzlich zu den oben genannten die folgenden Ports auf Ihrer Firewall aktiviert sind:

Port

Protokoll

Quelle

Zweck

Anforderungen

2379

TCP

Alle Knoten in einem Cluster

etcd-Clientport

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

2380

TCP

Alle Knoten in einem Cluster

etcd-Peer-Port

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

6443

TCP

Alle Knoten in einem Cluster

Für den Zugriff auf Kube API mit HTTPS; erforderlich für das Verbinden von Knoten.

Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster verfügen.

8472

UDP

Alle Knoten in einem Cluster

Erforderlich für Flannel (VXLAN)

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

9345

TCP

Alle Knoten in einem Cluster + Lastenausgleich

Für den Zugriff auf Kube API mit HTTP; erforderlich für das Verbinden von Knoten.

Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster und dem Lastenausgleich verfügen.

10250

TCP

Alle Knoten in einem Cluster

kubelet-/Metrikserver

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

30071

TCP

Alle Knoten in einem Cluster

NodePort-Port für die interne Kommunikation zwischen Knoten in einem Cluster

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

Wichtig:
Das Offenlegen des Ports 6443 außerhalb der Clustergrenze ist obligatorisch, wenn eine direkte Verbindung mit der Kerberos-API besteht.
Port 9345 wird von Knoten verwendet, um vorhandene Knoten zu erkennen und dem Cluster in der Bereitstellung mit mehreren Knoten beizutreten. Um die Erkennungsmechanismen der Hochverfügbarkeit am Laufen zu halten, empfehlen wir, ihn über den Lastausgleich mit Zustandsprüfung verfügbar zu machen.

Stellen Sie außerdem sicher, dass alle Konten eine Verbindung zum SQL-Server haben.

Exponieren Sie den SQL-Server nicht auf einem der reservierten Istio-Ports, da dies zu Verbindungsfehlern führen kann.

Wenn Sie im Netzwerk über eine Firewall verfügen, stellen Sie sicher, dass diese Ports geöffnet sind und der Datenverkehr gemäß den oben genannten Anforderungen zulässt.

Optional: Konfigurieren des Proxyservers

Um einen Proxy zu konfigurieren, müssen Sie bei der Schaffung der Voraussetzungen in der Umgebung und während der erweiterten Konfigurationsphase der Installation zusätzliche Konfigurationsschritte ausführen.

Beim Einrichten Ihrer Umgebung sind die folgenden Schritte erforderlich.

Derzeit unterstützen wir keinen HTTPS-Proxy mit selbstsignierten Zertifikaten. Stellen Sie sicher, dass Sie ein öffentliches vertrauenswürdiges Zertifikat verwenden, wenn Sie den Proxy konfigurieren.

Schritt 1: Aktivieren von Ports im virtuellen Netzwerk

Stellen Sie sicher, dass die folgenden Regeln in Ihrer Netzwerksicherheitsgruppe für das gegebene virtuelle Netzwerk aktiviert sind.

Quelle

Ziel (Destination)

Route über Proxy

Port

Beschreibung

Virtuelles Netzwerk

SQL

Nein

SQL Server-Port

Erforderlich für SQL Server.

Virtuelles Netzwerk

Load balancer

Nein

9345

6443

Erforderlich, um dem Cluster neue Knoten hinzuzufügen.

Virtuelles Netzwerk

Cluster (Subnetz)

Nein

Alle Ports

Erforderlich für die Kommunikation über einen privaten IP-Bereich.

Virtuelles Netzwerk

alm.<fqdn>

Nein

443

Erforderlich für die Anmeldung und Verwendung des ArgoCD-Clients während der Bereitstellung.

Virtuelles Netzwerk

Proxyserver

Ja

Alle Ports

Erforderlich, um Datenverkehr an den Proxyserver weiterzuleiten.

Virtuelles Netzwerk

NameServer

Nein

Alle Ports

Die meisten Clouddienste wie Azure und AWS verwenden dies, um die VM-Metadaten abzurufen und dies als private IP zu betrachten.

Virtuelles Netzwerk

MetaDataServer

Nein

Alle Ports

Die meisten Clouddienste wie Azure und AWS verwenden die IP-Adresse 169.254.169.254, um Maschinenmetadaten abzurufen.

Schritt 2: Hinzufügen der Proxykonfiguration zu den einzelnen Knoten

Beim Konfigurieren der Knoten müssen Sie die Proxykonfiguration zu jedem Knoten hinzufügen, der Teil des Clusters ist. Dieser Schritt ist erforderlich, damit ausgehender Datenverkehr vom Knoten über den Proxyserver weitergeleitet wird.

  1. Fügen Sie die folgende Konfiguration in /etc/environment hinzu:
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
  2. Fügen Sie die folgende Konfiguration in /etc/wgetrc hinzu:
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>

    Obligatorische Parameter

    Beschreibung

    http_proxy

    Wird zum Weiterleiten von ausgehenden HTTP-Anfragen aus dem Knoten verwendet. Dies muss der FQDN und Port des Proxyservers sein.

    https_proxy

    Wird zum Weiterleiten von ausgehenden HTTPS-Anfragen aus dem Knoten verwendet. Dies muss der FQDN und Port des Proxyservers sein.

    no_proxy

    Durch Kommas getrennte Liste von Hosts und IP-Adressen, die nicht über den Proxyserver weitergeleitet werden sollen. Dies sollte ein privates Subnetz, ein SQL-Serverhost, eine benannte Serveradresse und eine Metadatenserveradresse sein: alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>
    • named server address – Die meisten Clouddienste wie Azure und AWS verwenden diese Option, um DNS-Abfragen aufzulösen.
    • metadata server address – Die meisten Clouddienste wie Azure und AWS verwenden die IP-Adresse 169.254.169.254, um Maschinenmetadaten abzurufen.
  3. Überprüfen Sie, ob die Proxyeinstellungen ordnungsgemäß konfiguriert sind, indem Sie den folgenden Befehl ausführen:

    curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345
    Wichtig: Wenn die Voraussetzungen an den Proxyserver erfüllt sind, stellen Sie sicher, dass die Proxykonfiguration während der Installation fortgesetzt wird. Führen Sie die Schritte unter Optional: Konfigurieren des Proxyservers aus, damit der Proxyserver ordnungsgemäß eingerichtet wird.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2024 UiPath. Alle Rechte vorbehalten