automation-suite
2023.10
true
Automation Suite auf EKS/AKS-Installationsanleitung
Last updated 4. Okt. 2024

Fehlersuche und ‑behebung

Zustandsprüfung von Automation Suite Robot schlägt fehl

Beschreibung

Wenn Sie nach der Installation von Automation Suite in AKS den Integritätsstatus des Automation Suite Robot-Pods überprüfen, wird der folgende Fehler zurückgegeben: „[POD_UNHEALTHY] Pod asrobots-migrations-cvzfn in namespace uipath is in Failed status“.

Mögliches Problem

In seltenen Fällen können Datenbankmigrationen für den Orchestrator und Automation Suite Robot gleichzeitig ausgeführt werden. In diesem Fall schlägt die Migration der Datenbank von Automation Suite Robot fehl. In Argo CD sehen Sie zwei Migrations-Pods: einen mit einem gesunden Status und einen mit einem fehlerhaften Status.
docs image

Lösung

Die Datenbankmigration für Automation Suite Robot wird automatisch wiederholt und erfolgreich gerendert. Argo CD aktualisiert den Status jedoch nicht. Sie können den Status „fehlerhaft“ ignorieren.

Das Sicherungssetup funktioniert nicht, da die Verbindung mit Azure Government fehlgeschlagen ist

Beschreibung

Nach einer Installation oder einem Upgrade der Automation Suite auf AKS funktioniert das Sicherungssetup nicht, da eine Verbindung mit Azure Government fehlgeschlagen ist.

Lösung

Sie können das Problem beheben, indem Sie die folgenden Schritte ausführen:

  1. Erstellen Sie eine Datei namens velerosecrets.txt mit folgendem Inhalt:
    AZURE_CLIENT_SECRET=<secretforserviceprincipal>
    AZURE_CLIENT_ID=<clientidforserviceprincipal>
    AZURE_TENANT_ID=<tenantidforserviceprincipal> 
    AZURE_SUBSCRIPTION_ID=<subscriptionidforserviceprincipal>
    AZURE_CLOUD_NAME=AzureUSGovernmentCloud
    AZURE_RESOURCE_GROUP=<infraresourcegroupoftheakscluster>AZURE_CLIENT_SECRET=<secretforserviceprincipal>
    AZURE_CLIENT_ID=<clientidforserviceprincipal>
    AZURE_TENANT_ID=<tenantidforserviceprincipal> 
    AZURE_SUBSCRIPTION_ID=<subscriptionidforserviceprincipal>
    AZURE_CLOUD_NAME=AzureUSGovernmentCloud
    AZURE_RESOURCE_GROUP=<infraresourcegroupoftheakscluster>
  2. Codieren Sie die Daten in der Datei velerosecrets.txt als Base64:
    export b64velerodata=$(cat velerosecrets.txt | base64)export b64velerodata=$(cat velerosecrets.txt | base64)
  3. Aktualisieren Sie das Geheimnis velero-azure im Namespace velero wie im folgenden Beispiel gezeigt:
    apiVersion: v1
    kind: Secret
    metadata:
      name: velero-azure
      namespace: velero
    data:
      cloud: <insert the $b64velerodata value here>apiVersion: v1
    kind: Secret
    metadata:
      name: velero-azure
      namespace: velero
    data:
      cloud: <insert the $b64velerodata value here>
    
  4. Starten Sie die Bereitstellung velero neu:
    kubectl rollout restart deploy -n velerokubectl rollout restart deploy -n velero

Hängende Pods im uipath-Namespace bei Aktivierung von benutzerdefinierten Knoten-Markierungen

Beschreibung

Pods im uipath-Namespace werden nicht ausgeführt, wenn benutzerdefinierte Knoten-Markierungen aktiviert sind. Die Pods können nicht mit dem adminctl-Webhook kommunizieren, der Pod-Tolerierungen in eine EKS-Umgebung einfügt.

Lösung

Um das Problem zu beheben, erstellen Sie eine Netzwerkrichtlinie, um Datenverkehr zum admctl-Webhook vom Cluster-CIDR oder von 0.0.0.0/0 zuzulassen.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
  name: allow-all-ingress-to-admctl
  namespace: uipath
spec:
  podSelector:
    matchLabels:
      app: admctl-webhook
  ingress:
    - from:
        - ipBlock:
            cidr: <cluster-pod-cdr> or "0.0.0.0/0"kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
  name: allow-all-ingress-to-admctl
  namespace: uipath
spec:
  podSelector:
    matchLabels:
      app: admctl-webhook
  ingress:
    - from:
        - ipBlock:
            cidr: <cluster-pod-cdr> or "0.0.0.0/0"

Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren

Beschreibung

Pods können nicht mit dem FQDN in einer Proxy-Umgebung kommunizieren und der folgende Fehler wird angezeigt:

System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.

Lösung

Um das Problem zu beheben, müssen Sie einen ServiceEntry erstellen, wie im folgenden Beispiel gezeigt:
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
  name: proxy
  namespace: uipath
spec:
  hosts:
  - <proxy-host>
  addresses:
  - <proxy-ip>/32
  ports:
  - number: <proxy-port>
    name: tcp
    protocol: TCP
  location: MESH_EXTERNALapiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
  name: proxy
  namespace: uipath
spec:
  hosts:
  - <proxy-host>
  addresses:
  - <proxy-ip>/32
  ports:
  - number: <proxy-port>
    name: tcp
    protocol: TCP
  location: MESH_EXTERNAL

Bereitstellen von Automation Suite Robots schlägt fehl

Beschreibung

Der Fehler tritt hauptsächlich auf FIPS-fähigen Knoten auf, wenn Azure Files mit dem NFS-Protokoll verwendet wird.

Während der Installation der Automation Suite auf AKS schlägt das Erstellen des PVC für Automation Suite Robots asrobots-pvc-package-cache fehl.

Mögliches Problem

Das geschieht, weil der AKS-Cluster keine Verbindung zu Azure Files herstellen kann.

Beispielsweise kann die folgende Fehlermeldung angezeigt werden:

failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}

Lösung

Um dieses Problem zu beheben, müssen Sie der Automation Suite Zugriff auf die Azure-Ressource gewähren.

  1. Navigieren Sie in Azure zur AKS-Ressourcengruppe und öffnen Sie dann die Seite des gewünschten virtuellen Netzwerks. Zum Beispiel ist das virtuelle Netzwerk in diesem Fall ci-asaks4421698.
  2. Wählen Sie das gewünschte Subnetz aus der Liste Subnetze aus. Zum Beispiel ist das Subnetz in diesem Fall ci-asaks4421698.
  3. Klicken Sie oben in der Subnetzliste auf Benutzer verwalten. Die Seite Zugriffssteuerung wird geöffnet.
  4. Klicken Sie auf Rollenzuweisung hinzufügen.
  5. Suchen Sie nach der Rolle Netzwerkmitwirkender.
  6. Wählen Sie Verwaltete Identität aus.
  7. Wechseln Sie zur Registerkarte Mitglieder.
  8. Wählen Sie Verwaltete Identität und dann Kubernetes-Dienst aus.
  9. Wählen Sie den Namen des AKS-Clusters aus.
  10. Klicken Sie auf Überprüfen und zuweisen.

AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10

Beschreibung

Beim Upgrade von 2023.4.3 auf 2023.10 treten Probleme mit der Bereitstellung von AI Center auf.

Das System zeigt die folgende Ausnahme an und die Mandantenerstellung schlägt fehl: "exception":"sun.security.pkcs11.wrapper.PKCS11Exception: CKR_KEY_SIZE_RANGE

Lösung

Um dieses Problem zu beheben, müssen Sie einen Rollout-Neustart der ai-trainer-Bereitstellung durchführen. Führen Sie dazu den folgenden Befehl aus:
kubectl -n uipath rollout restart deploy ai-trainer-deploymentkubectl -n uipath rollout restart deploy ai-trainer-deployment

Automation Hub und Apps können mit Proxy-Setup nicht gestartet werden

Beschreibung

Wenn Sie ein Proxy-Setup verwenden, können Probleme beim Starten von Automation Hub und Apps auftreten.

Lösung

Sie können das Problem beheben, indem Sie die folgenden Schritte ausführen:

  1. Erfassen Sie die vorhandene Konfigurationszuordnung coredns aus dem ausgeführten Cluster:
    kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yamlkubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml
  2. Bearbeiten Sie die Datei coredns-config.yaml, um den Rewrite von fqdn an die Konfiguration anzufügen.
    1. Benennen Sie die Konfigurationszuordnung in coredns-custom um.
    2. Fügen Sie den folgenden Codeblock zu Ihrer coredns-config.yaml-Datei hinzu. Stellen Sie sicher, dass sich der Codeblock vor der Zeile kubernetes cluster.local in-addr.arpa ip6.arp befindet.
      rewrite stop {
                  name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local
              }rewrite stop {
                  name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local
              }
    3. Ersetzen Sie <cluster-fqdn> durch den tatsächlichen Wert.
    Nachdem Sie diese Schritte ausgeführt haben, sollte Ihre Datei dem folgenden Beispiel ähneln:
    apiVersion: v1
    data:
      Corefile: |
        .:53 {
            errors
            log
            health
            rewrite stop {
                name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local
            }
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              pods insecure
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    kind: ConfigMap
    metadata:
      name: coredns-custom
      namespace: kube-systemapiVersion: v1
    data:
      Corefile: |
        .:53 {
            errors
            log
            health
            rewrite stop {
                name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local
            }
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              pods insecure
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    kind: ConfigMap
    metadata:
      name: coredns-custom
      namespace: kube-system
  3. Erstellen Sie die coredns-custom-Konfigurationszuordnung:
    kubectl apply -f coredns-config.yamlkubectl apply -f coredns-config.yaml
  4. Ersetzen Sie die Volume-Referenz von coredns durch coredns-custom in der coredns-Bereitstellung im kube-system-Namespace:
    volumes:
      - emptyDir: {}
        name: tmp
      - configMap:
          defaultMode: 420
          items:
          - key: Corefile
            path: Corefile
          name: coredns-custom
        name: config-volumevolumes:
      - emptyDir: {}
        name: tmp
      - configMap:
          defaultMode: 420
          items:
          - key: Corefile
            path: Corefile
          name: coredns-custom
        name: config-volume
  5. Starten Sie die coredns-Bereitstellung neu und stellen Sie sicher, dass die coredns-Pods problemlos ausgeführt werden:
    kubectl rollout restart deployment -n kube-system corednskubectl rollout restart deployment -n kube-system coredns
  6. Sie sollten jetzt Automation Hub und Apps starten können.

Installation schlägt fehl, wenn Velero aktiviert ist

Beschreibung

Die Automation Suite-Installation kann fehlschlagen, wenn Velero aktiviert ist.

Lösung

Führen Sie die folgenden Schritte aus, um das Problem zu beheben:

  1. Stellen Sie sicher, dass Helm 3.14 auf der Jumpbox oder dem Laptop ausgeführt wird, die für die Installation der Automation Suite verwendet werden.

  2. Extrahieren Sie die Konfigurationswerte des fehlgeschlagenen Helm-Diagramms, in diesem Fall Velero:

    helm -n velero get values velero > customvals.yamlhelm -n velero get values velero > customvals.yaml
  3. Fügen Sie das fehlende Image-Pull-Geheimnis in der Datei customvals.yaml unter dem Pfad .image.imagePullSecrets hinzu:
    image:
      imagePullSecrets:
      - uipathpullsecretimage:
      imagePullSecrets:
      - uipathpullsecret
  4. Wenn Velero bereits installiert wurde, deinstallieren Sie es:

    helm uninstall -n velero velerohelm uninstall -n velero velero
  5. Erstellen Sie eine neue Datei mit dem Namen velerosecrets.txt. Geben Sie Ihre spezifischen Informationen ein, wie im folgenden Beispiel gezeigt:
    AZURE_CLIENT_SECRET=<secretforserviceprincipal>
    AZURE_CLIENT_ID=<clientidforserviceprincipal>
    AZURE_TENANT_ID=<tenantidforserviceprincipal> 
    AZURE_SUBSCRIPTION_ID=<subscriptionidforserviceprincipal>
    AZURE_CLOUD_NAME=AzurePublicCloud
    AZURE_RESOURCE_GROUP=<infraresourcegroupoftheakscluster>AZURE_CLIENT_SECRET=<secretforserviceprincipal>
    AZURE_CLIENT_ID=<clientidforserviceprincipal>
    AZURE_TENANT_ID=<tenantidforserviceprincipal> 
    AZURE_SUBSCRIPTION_ID=<subscriptionidforserviceprincipal>
    AZURE_CLOUD_NAME=AzurePublicCloud
    AZURE_RESOURCE_GROUP=<infraresourcegroupoftheakscluster>
  6. Codieren Sie die Datei velerosecrets.txt:
    export b64velerodata=$(cat velerosecrets.txt | base64)export b64velerodata=$(cat velerosecrets.txt | base64)
  7. Erstellen Sie das Geheimnis velero-azure im Namespace velero. Fügen Sie den folgenden Inhalt ein:
    apiVersion: v1
    kind: Secret
    metadata:
      name: velero-azure
      namespace: velero
    data:
      cloud: <put the $b64velerodata value here>apiVersion: v1
    kind: Secret
    metadata:
      name: velero-azure
      namespace: velero
    data:
      cloud: <put the $b64velerodata value here>
  8. Installieren Sie Velero neu:

    helm install velero -n velero <path to velero - 3.1.6 helm chart tgz> -f customvals.yamlhelm install velero -n velero <path to velero - 3.1.6 helm chart tgz> -f customvals.yaml

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2024 UiPath. Alle Rechte vorbehalten