- Überblick
- Anforderungen
- Installation
- Voraussetzungsprüfungen
- Herunterladen der Installationspakete
- uipathctl-Cluster
- uipathctl-Clusterwartung
- uipathctl cluster maintenance disable
- uipathctl cluster maintenance enable
- uipathctl cluster maintenance is-enabled
- uipathctl cluster migration
- uipathctl cluster migration export
- uipathctl cluster migration import
- uipathctl cluster migration run
- uipathctl-Cluster-Upgrade
- uipathctl config
- uipathctl config add-host-admin
- uipathctl config additional-ca-certificates
- uipathctl config additional-ca-certificates get
- uipathctl config additional-ca-certificates update
- uipathctl config-Warnungen
- uipathctl config Alerts add-email
- uipathctl config alerts remove-email
- uipathctl config alerts update-email
- uipathctl config argocd
- uipathctl config argocd ca-certificates
- uipathctl config argocd ca-certificates get
- uipathctl config argocd ca-certificates update
- uipathctl config argocd generate-dex-config
- uipathctl config argocd generate-rbac
- uipathctl config argocd registry
- uipathctl config argocd registry get
- uipathctl config argocd registry update
- uipathctl config enable-basic-auth
- uipathctl config Orchestrator
- uipathctl config Orchestrator get-config
- uipathctl config orchestrator update-config
- uipathctl config saml-certificates get
- uipathctl config saml-certificates rotate
- uipathctl config saml-certificates update
- uipathctl config tls-certificates
- uipathctl config tls-certificates get
- uipathctl config tls-certificates update
- uipathctl config token-signing-certificates
- uipathctl config token-signing-certificates get
- uipathctl config token-signing-certificates rotate
- uipathctl config token-signing-certificates update
- UiPathctl-Zustand
- Uipathctl-Gesundheitspaket
- Uipathctl-Zustandsprüfung
- uipathctl health diagnose
- uipathctl health test
- uipathctl-Manifest
- uipathctl manifest apply
- uipathctl manifest diff
- uipathctl manifest get
- uipathctl manifest get-revision
- uipathctl Manifest list-applications
- uipathctl manifest list-revisions
- uipathctl manifest render
- uipathctl-Voraussetzung
- uipathctl prereq create
- uipathctl prereq run
- „uipathctl“-Ressource
- uipathctl-Ressourcenbericht
- uipathctl-Snapshot
- uipathctl-Snapshot-Sicherung
- uipathctl snapshot backup create
- uipathctl snapshot backup disable
- uipathctl snapshot backup enable
- uipathctl snapshot delete
- uipathctl snapshot list
- uipathctl snapshot restore
- uipathctl snapshot restore create
- uipathctl snapshot restore delete
- uipathctl snapshot restore history
- uipathctl snapshot restore logs
- uipathctl-Version
- Nach der Installation
- Migration und Upgrade
- Aktualisieren der Automation Suite auf EKS/AKS
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren des eigenständigen Orchestrators
- Schritt 7: Migrieren von eigenständigen Insights
- Schritt 8: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Migrieren von der Automation Suite unter Linux zur Automation Suite unter EKS/AKS
- Überwachung und Warnungen
- Clusterverwaltung
- Produktspezifische Konfiguration
- Verwenden des Orchestrator-Konfiguratortools
- Konfigurieren von Orchestrator-Parametern
- Orchestrator-appSettings
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Fehlersuche und ‑behebung
- Fehlersuche und ‑behebung
Fehlersuche und ‑behebung
Wenn Sie nach der Installation von Automation Suite in AKS den Integritätsstatus des Automation Suite Robot-Pods überprüfen, wird der folgende Fehler zurückgegeben: „[POD_UNHEALTHY] Pod asrobots-migrations-cvzfn in namespace uipath is in Failed status“.
Nach einer Installation oder einem Upgrade der Automation Suite auf AKS funktioniert das Sicherungssetup nicht, da eine Verbindung mit Azure Government fehlgeschlagen ist.
Sie können das Problem beheben, indem Sie die folgenden Schritte ausführen:
- Erstellen Sie eine Datei namens
velerosecrets.txt
mit folgendem Inhalt:AZURE_CLIENT_SECRET=<secretforserviceprincipal> AZURE_CLIENT_ID=<clientidforserviceprincipal> AZURE_TENANT_ID=<tenantidforserviceprincipal> AZURE_SUBSCRIPTION_ID=<subscriptionidforserviceprincipal> AZURE_CLOUD_NAME=AzureUSGovernmentCloud AZURE_RESOURCE_GROUP=<infraresourcegroupoftheakscluster>
AZURE_CLIENT_SECRET=<secretforserviceprincipal> AZURE_CLIENT_ID=<clientidforserviceprincipal> AZURE_TENANT_ID=<tenantidforserviceprincipal> AZURE_SUBSCRIPTION_ID=<subscriptionidforserviceprincipal> AZURE_CLOUD_NAME=AzureUSGovernmentCloud AZURE_RESOURCE_GROUP=<infraresourcegroupoftheakscluster> - Codieren Sie die Daten in der Datei
velerosecrets.txt
als Base64:export b64velerodata=$(cat velerosecrets.txt | base64)
export b64velerodata=$(cat velerosecrets.txt | base64) - Aktualisieren Sie das Geheimnis
velero-azure
im Namespacevelero
wie im folgenden Beispiel gezeigt:apiVersion: v1 kind: Secret metadata: name: velero-azure namespace: velero data: cloud: <insert the $b64velerodata value here>
apiVersion: v1 kind: Secret metadata: name: velero-azure namespace: velero data: cloud: <insert the $b64velerodata value here> - Starten Sie die Bereitstellung
velero
neu:kubectl rollout restart deploy -n velero
kubectl rollout restart deploy -n velero
Pods im uipath-Namespace werden nicht ausgeführt, wenn benutzerdefinierte Knoten-Markierungen aktiviert sind. Die Pods können nicht mit dem adminctl-Webhook kommunizieren, der Pod-Tolerierungen in eine EKS-Umgebung einfügt.
admctl
-Webhook vom Cluster-CIDR oder von 0.0.0.0/0
zuzulassen.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-all-ingress-to-admctl
namespace: uipath
spec:
podSelector:
matchLabels:
app: admctl-webhook
ingress:
- from:
- ipBlock:
cidr: <cluster-pod-cdr> or "0.0.0.0/0"
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-all-ingress-to-admctl
namespace: uipath
spec:
podSelector:
matchLabels:
app: admctl-webhook
ingress:
- from:
- ipBlock:
cidr: <cluster-pod-cdr> or "0.0.0.0/0"
Pods können nicht mit dem FQDN in einer Proxy-Umgebung kommunizieren und der folgende Fehler wird angezeigt:
System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.
System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.
ServiceEntry
erstellen, wie im folgenden Beispiel gezeigt:
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
name: proxy
namespace: uipath
spec:
hosts:
- <proxy-host>
addresses:
- <proxy-ip>/32
ports:
- number: <proxy-port>
name: tcp
protocol: TCP
location: MESH_EXTERNAL
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
name: proxy
namespace: uipath
spec:
hosts:
- <proxy-host>
addresses:
- <proxy-ip>/32
ports:
- number: <proxy-port>
name: tcp
protocol: TCP
location: MESH_EXTERNAL
Der Fehler tritt hauptsächlich auf FIPS-fähigen Knoten auf, wenn Azure Files mit dem NFS-Protokoll verwendet wird.
asrobots-pvc-package-cache
fehl.
Das geschieht, weil der AKS-Cluster keine Verbindung zu Azure Files herstellen kann.
Beispielsweise kann die folgende Fehlermeldung angezeigt werden:
failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}
failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}
Um dieses Problem zu beheben, müssen Sie der Automation Suite Zugriff auf die Azure-Ressource gewähren.
- Navigieren Sie in Azure zur AKS-Ressourcengruppe und öffnen Sie dann die Seite des gewünschten virtuellen Netzwerks. Zum Beispiel ist das virtuelle Netzwerk in diesem Fall
ci-asaks4421698
. - Wählen Sie das gewünschte Subnetz aus der Liste Subnetze aus. Zum Beispiel ist das Subnetz in diesem Fall
ci-asaks4421698
. - Klicken Sie oben in der Subnetzliste auf Benutzer verwalten. Die Seite Zugriffssteuerung wird geöffnet.
- Klicken Sie auf Rollenzuweisung hinzufügen.
- Suchen Sie nach der Rolle Netzwerkmitwirkender.
- Wählen Sie Verwaltete Identität aus.
- Wechseln Sie zur Registerkarte Mitglieder.
- Wählen Sie Verwaltete Identität und dann Kubernetes-Dienst aus.
- Wählen Sie den Namen des AKS-Clusters aus.
- Klicken Sie auf Überprüfen und zuweisen.
Beim Upgrade von 2023.4.3 auf 2023.10 treten Probleme mit der Bereitstellung von AI Center auf.
"exception":"sun.security.pkcs11.wrapper.PKCS11Exception: CKR_KEY_SIZE_RANGE
Sie können das Problem beheben, indem Sie die folgenden Schritte ausführen:
-
Erfassen Sie die vorhandene Konfigurationszuordnung
coredns
aus dem ausgeführten Cluster:kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml
kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml -
Bearbeiten Sie die Datei
coredns-config.yaml
, um den Rewrite vonfqdn
an die Konfiguration anzufügen.-
Benennen Sie die Konfigurationszuordnung in
coredns-custom
um. -
Fügen Sie den folgenden Codeblock zu Ihrer
coredns-config.yaml
-Datei hinzu. Stellen Sie sicher, dass sich der Codeblock vor der Zeilekubernetes cluster.local in-addr.arpa ip6.arp
befindet.rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local }
rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local } -
Ersetzen Sie
<cluster-fqdn>
durch den tatsächlichen Wert.
apiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-system
apiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-system -
-
Erstellen Sie die
coredns-custom
-Konfigurationszuordnung:kubectl apply -f coredns-config.yaml
kubectl apply -f coredns-config.yaml -
Ersetzen Sie die Volume-Referenz von
coredns
durchcoredns-custom
in dercoredns
-Bereitstellung imkube-system
-Namespace:volumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volume
volumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volume -
Starten Sie die
coredns
-Bereitstellung neu und stellen Sie sicher, dass diecoredns
-Pods problemlos ausgeführt werden:kubectl rollout restart deployment -n kube-system coredns
kubectl rollout restart deployment -n kube-system coredns -
Sie sollten jetzt Automation Hub und Apps starten können.
Führen Sie die folgenden Schritte aus, um das Problem zu beheben:
-
Stellen Sie sicher, dass Helm 3.14 auf der Jumpbox oder dem Laptop ausgeführt wird, die für die Installation der Automation Suite verwendet werden.
-
Extrahieren Sie die Konfigurationswerte des fehlgeschlagenen Helm-Diagramms, in diesem Fall Velero:
helm -n velero get values velero > customvals.yaml
helm -n velero get values velero > customvals.yaml -
Fügen Sie das fehlende Image-Pull-Geheimnis in der Datei
customvals.yaml
unter dem Pfad.image.imagePullSecrets
hinzu:image: imagePullSecrets: - uipathpullsecret
image: imagePullSecrets: - uipathpullsecret -
Wenn Velero bereits installiert wurde, deinstallieren Sie es:
helm uninstall -n velero velero
helm uninstall -n velero velero -
Erstellen Sie eine neue Datei mit dem Namen
velerosecrets.txt
. Geben Sie Ihre spezifischen Informationen ein, wie im folgenden Beispiel gezeigt:AZURE_CLIENT_SECRET=<secretforserviceprincipal> AZURE_CLIENT_ID=<clientidforserviceprincipal> AZURE_TENANT_ID=<tenantidforserviceprincipal> AZURE_SUBSCRIPTION_ID=<subscriptionidforserviceprincipal> AZURE_CLOUD_NAME=AzurePublicCloud AZURE_RESOURCE_GROUP=<infraresourcegroupoftheakscluster>
AZURE_CLIENT_SECRET=<secretforserviceprincipal> AZURE_CLIENT_ID=<clientidforserviceprincipal> AZURE_TENANT_ID=<tenantidforserviceprincipal> AZURE_SUBSCRIPTION_ID=<subscriptionidforserviceprincipal> AZURE_CLOUD_NAME=AzurePublicCloud AZURE_RESOURCE_GROUP=<infraresourcegroupoftheakscluster> -
Codieren Sie die Datei
velerosecrets.txt
:export b64velerodata=$(cat velerosecrets.txt | base64)
export b64velerodata=$(cat velerosecrets.txt | base64) -
Erstellen Sie das Geheimnis
velero-azure
im Namespacevelero
. Fügen Sie den folgenden Inhalt ein:apiVersion: v1 kind: Secret metadata: name: velero-azure namespace: velero data: cloud: <put the $b64velerodata value here>
apiVersion: v1 kind: Secret metadata: name: velero-azure namespace: velero data: cloud: <put the $b64velerodata value here> -
Installieren Sie Velero neu:
helm install velero -n velero <path to velero - 3.1.6 helm chart tgz> -f customvals.yaml
helm install velero -n velero <path to velero - 3.1.6 helm chart tgz> -f customvals.yaml
- Zustandsprüfung von Automation Suite Robot schlägt fehl
- Beschreibung
- Mögliches Problem
- Lösung
- Das Sicherungssetup funktioniert nicht, da die Verbindung mit Azure Government fehlgeschlagen ist
- Beschreibung
- Lösung
- Hängende Pods im uipath-Namespace bei Aktivierung von benutzerdefinierten Knoten-Markierungen
- Beschreibung
- Lösung
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Beschreibung
- Lösung
- Bereitstellen von Automation Suite Robots schlägt fehl
- Beschreibung
- Mögliches Problem
- Lösung
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10
- Beschreibung
- Lösung
- Automation Hub und Apps können mit Proxy-Setup nicht gestartet werden
- Beschreibung
- Lösung
- Installation schlägt fehl, wenn Velero aktiviert ist
- Beschreibung
- Lösung