- Überblick
- Anforderungen
- Installation
- Voraussetzungsprüfungen
- Herunterladen der Installationspakete
- uipathctl-Cluster
- uipathctl-Clusterwartung
- uipathctl cluster maintenance disable
- uipathctl cluster maintenance enable
- uipathctl cluster maintenance is-enabled
- uipathctl cluster migration
- uipathctl cluster migration export
- uipathctl cluster migration import
- uipathctl cluster migration run
- uipathctl-Cluster-Upgrade
- uipathctl config
- uipathctl config add-host-admin
- uipathctl config additional-ca-certificates
- uipathctl config additional-ca-certificates get
- uipathctl config additional-ca-certificates update
- uipathctl config-Warnungen
- uipathctl config Alerts add-email
- uipathctl config alerts remove-email
- uipathctl config alerts update-email
- uipathctl config argocd
- uipathctl config argocd ca-certificates
- uipathctl config argocd ca-certificates get
- uipathctl config argocd ca-certificates update
- uipathctl config argocd generate-dex-config
- uipathctl config argocd generate-rbac
- uipathctl config argocd registry
- uipathctl config argocd registry get
- uipathctl config argocd registry update
- uipathctl config enable-basic-auth
- uipathctl config Orchestrator
- uipathctl config Orchestrator get-config
- uipathctl config orchestrator update-config
- uipathctl config saml-certificates get
- uipathctl config saml-certificates rotate
- uipathctl config saml-certificates update
- uipathctl config tls-certificates
- uipathctl config tls-certificates get
- uipathctl config tls-certificates update
- uipathctl config token-signing-certificates
- uipathctl config token-signing-certificates get
- uipathctl config token-signing-certificates rotate
- uipathctl config token-signing-certificates update
- UiPathctl-Zustand
- Uipathctl-Gesundheitspaket
- Uipathctl-Zustandsprüfung
- uipathctl health diagnose
- uipathctl health test
- uipathctl-Manifest
- uipathctl manifest apply
- uipathctl manifest diff
- uipathctl manifest get
- uipathctl manifest get-revision
- uipathctl Manifest list-applications
- uipathctl manifest list-revisions
- uipathctl manifest render
- uipathctl-Voraussetzung
- uipathctl prereq create
- uipathctl prereq run
- „uipathctl“-Ressource
- uipathctl-Ressourcenbericht
- uipathctl-Snapshot
- uipathctl-Snapshot-Sicherung
- uipathctl snapshot backup create
- uipathctl snapshot backup disable
- uipathctl snapshot backup enable
- uipathctl snapshot delete
- uipathctl snapshot list
- uipathctl snapshot restore
- uipathctl snapshot restore create
- uipathctl snapshot restore delete
- uipathctl snapshot restore history
- uipathctl snapshot restore logs
- uipathctl-Version
- Nach der Installation
- Migration und Upgrade
- Aktualisieren der Automation Suite auf EKS/AKS
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren des eigenständigen Orchestrators
- Schritt 7: Migrieren von eigenständigen Insights
- Schritt 8: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Migrieren von der Automation Suite unter Linux zur Automation Suite unter EKS/AKS
- Überwachung und Warnungen
- Clusterverwaltung
- Produktspezifische Konfiguration
- Verwenden des Orchestrator-Konfiguratortools
- Konfigurieren von Orchestrator-Parametern
- Orchestrator-appSettings
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Fehlersuche und ‑behebung
- Fehlersuche und ‑behebung
Fehlersuche und ‑behebung
Wenn Sie nach der Installation von Automation Suite in AKS den Integritätsstatus des Automation Suite Robot-Pods überprüfen, wird der folgende Fehler zurückgegeben: „[POD_UNHEALTHY] Pod asrobots-migrations-cvzfn in namespace uipath is in Failed status“.
Pods im uipath-Namespace werden nicht ausgeführt, wenn benutzerdefinierte Knoten-Markierungen aktiviert sind. Die Pods können nicht mit dem adminctl-Webhook kommunizieren, der Pod-Tolerierungen in eine EKS-Umgebung einfügt.
admctl
-Webhook vom Cluster-CIDR oder von 0.0.0.0/0
zuzulassen.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-all-ingress-to-admctl
namespace: uipath
spec:
podSelector:
matchLabels:
app: admctl-webhook
ingress:
- from:
- ipBlock:
cidr: <cluster-pod-cdr> or "0.0.0.0/0"
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-all-ingress-to-admctl
namespace: uipath
spec:
podSelector:
matchLabels:
app: admctl-webhook
ingress:
- from:
- ipBlock:
cidr: <cluster-pod-cdr> or "0.0.0.0/0"
Pods können nicht mit dem FQDN in einer Proxy-Umgebung kommunizieren und der folgende Fehler wird angezeigt:
System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.
System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.
ServiceEntry
erstellen, wie im folgenden Beispiel gezeigt:
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
name: proxy
namespace: uipath
spec:
hosts:
- <proxy-host>
addresses:
- <proxy-ip>/32
ports:
- number: <proxy-port>
name: tcp
protocol: TCP
location: MESH_EXTERNAL
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
name: proxy
namespace: uipath
spec:
hosts:
- <proxy-host>
addresses:
- <proxy-ip>/32
ports:
- number: <proxy-port>
name: tcp
protocol: TCP
location: MESH_EXTERNAL
Der Fehler tritt hauptsächlich auf FIPS-fähigen Knoten auf, wenn Azure Files mit dem NFS-Protokoll verwendet wird.
asrobots-pvc-package-cache
fehl.
Das geschieht, weil der AKS-Cluster keine Verbindung zu Azure Files herstellen kann.
Beispielsweise kann die folgende Fehlermeldung angezeigt werden:
failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}
failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}
Um dieses Problem zu beheben, müssen Sie der Automation Suite Zugriff auf die Azure-Ressource gewähren.
- Navigieren Sie in Azure zur AKS-Ressourcengruppe und öffnen Sie dann die Seite des gewünschten virtuellen Netzwerks. Zum Beispiel ist das virtuelle Netzwerk in diesem Fall
ci-asaks4421698
. - Wählen Sie das gewünschte Subnetz aus der Liste Subnetze aus. Zum Beispiel ist das Subnetz in diesem Fall
ci-asaks4421698
. - Klicken Sie oben in der Subnetzliste auf Benutzer verwalten. Die Seite Zugriffssteuerung wird geöffnet.
- Klicken Sie auf Rollenzuweisung hinzufügen.
- Suchen Sie nach der Rolle Netzwerkmitwirkender.
- Wählen Sie Verwaltete Identität aus.
- Wechseln Sie zur Registerkarte Mitglieder.
- Wählen Sie Verwaltete Identität und dann Kubernetes-Dienst aus.
- Wählen Sie den Namen des AKS-Clusters aus.
- Klicken Sie auf Überprüfen und zuweisen.
Beim Upgrade von 2023.4.3 auf 2023.10 treten Probleme mit der Bereitstellung von AI Center auf.
"exception":"sun.security.pkcs11.wrapper.PKCS11Exception: CKR_KEY_SIZE_RANGE
Sie können das Problem beheben, indem Sie die folgenden Schritte ausführen:
-
Erfassen Sie die vorhandene Konfigurationszuordnung
coredns
aus dem ausgeführten Cluster:kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml
kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml -
Bearbeiten Sie die Datei
coredns-config.yaml
, um den Rewrite vonfqdn
an die Konfiguration anzufügen.-
Benennen Sie die Konfigurationszuordnung in
coredns-custom
um. -
Fügen Sie den folgenden Codeblock zu Ihrer
coredns-config.yaml
-Datei hinzu. Stellen Sie sicher, dass sich der Codeblock vor der Zeilekubernetes cluster.local in-addr.arpa ip6.arp
befindet.rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local }
rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local } -
Ersetzen Sie
<cluster-fqdn>
durch den tatsächlichen Wert.
apiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-system
apiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-system -
-
Erstellen Sie die
coredns-custom
-Konfigurationszuordnung:kubectl apply -f coredns-config.yaml
kubectl apply -f coredns-config.yaml -
Ersetzen Sie die Volume-Referenz von
coredns
durchcoredns-custom
in dercoredns
-Bereitstellung imkube-system
-Namespace:volumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volume
volumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volume -
Starten Sie die
coredns
-Bereitstellung neu und stellen Sie sicher, dass diecoredns
-Pods problemlos ausgeführt werden:kubectl rollout restart deployment -n kube-system coredns
kubectl rollout restart deployment -n kube-system coredns -
Sie sollten jetzt Automation Hub und Apps starten können.
- Zustandsprüfung von Automation Suite Robot schlägt fehl
- Beschreibung
- Mögliches Problem
- Lösung
- Hängende Pods im uipath-Namespace bei Aktivierung von benutzerdefinierten Knoten-Markierungen
- Beschreibung
- Lösung
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Beschreibung
- Lösung
- Bereitstellen von Automation Suite Robots schlägt fehl
- Beschreibung
- Mögliches Problem
- Lösung
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10
- Beschreibung
- Lösung
- Automation Hub und Apps können mit Proxy-Setup nicht gestartet werden
- Beschreibung
- Lösung