- Información general
- Requisitos
- Instalación
- Comprobaciones de requisitos previos
- Descarga de los paquetes de instalación
- clúster uipathctl
- mantenimiento del clúster de uipathctl
- uipathctl cluster maintenance disable
- uipathctl cluster maintenance enable
- uipathctl cluster maintenance is-enabled
- uipathctl cluster migration
- uipathctl cluster migration export
- uipathctl cluster migration import
- uipathctl cluster migration run
- actualización del clúster de uipathctl
- configuración de uipathctl
- uipathctl config add-host-admin
- uipathctl config additional-ca-certificates
- uipathctl config additional-ca-certificates get
- uipathctl config additional-ca-certificates update
- Alertas de configuración de uipathctl
- Complemento de alertas de configuración de uipathctl
- uipathctl config alerts remove-email
- uipathctl config alerts update-email
- uipathctl config argocd
- uipathctl config argocd ca-certificates
- uipathctl config argocd ca-certificates get
- uipathctl config argocd ca-certificates update
- uipathctl config argocd generate-dex-config
- uipathctl config argocd generate-rbac
- uipathctl config argocd registry
- uipathctl config argocd registry get
- uipathctl config argocd registry update
- uipathctl config enable-basic-auth
- orchestrator de configuración de uipathctl
- get-config de uipathctl config del orquestador
- uipathctl config orchestrator update-config
- uipathctl config saml-certificates get
- uipathctl config saml-certificates rotate
- uipathctl config saml-certificates update
- uipathctl config tls-certificates
- uipathctl config tls-certificates get
- uipathctl config tls-certificates update
- uipathctl config token-signing-certificates
- uipathctl config token-signing-certificates get
- uipathctl config token-signing-certificates rotate
- uipathctl config token-signing-certificates update
- salud de uipathctl
- Paquete de salud de uipathctl
- comprobación de estado de uipathctl
- uipathctl health diagnose
- uipathctl health test
- manifiesto de uipathctl
- uipathctl manifest apply
- uipathctl manifest diff
- uipathctl manifest get
- uipathctl manifest get-revision
- lista de manifiesto de aplicaciones de uipathctl
- uipathctl manifest list-revisions
- uipathctl manifest render
- prerrequisito de uipathctl
- uipathctl prereq create
- uipathctl prereq run
- recurso uipathctl
- informe de recursos uipathctl
- instantánea de uipathctl
- copia de seguridad de instantánea de uipathctl
- uipathctl snapshot backup create
- uipathctl snapshot backup disable
- uipathctl snapshot backup enable
- uipathctl snapshot delete
- uipathctl snapshot list
- uipathctl snapshot restore
- uipathctl snapshot restore create
- uipathctl snapshot restore delete
- uipathctl snapshot restore history
- uipathctl snapshot restore logs
- versión de uipathctl
- Después de la instalación
- Migración y actualización
- Actualizar Automation Suite en EKS / AKS
- Paso 1: Mover los datos de la organización de identidad de independiente a Automation Suite
- Paso 2: restaurar la base de datos del producto independiente
- Paso 3: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 4: Fusionar organizaciones en Automation Suite
- Paso 5: actualizar las cadenas de conexión de los productos migrados
- Paso 6: migrar el Orchestrator independiente
- Paso 7: migrar Insights independiente
- Paso 8: eliminar el tenant predeterminado
- B) Migración de tenant único
- Migrar de Automation Suite en Linux a Automation Suite en EKS / AKS
- Supervisión y alertas
- Administración de clústeres
- Configuración específica del producto
- Uso de la herramienta de configuración de Orchestrator
- Configurar parámetros de Orchestrator
- Configuración de Orchestrator
- Configurar AppSettings
- Configurar el tamaño máximo de la solicitud
- Anular la configuración de almacenamiento a nivel de clúster
- Configurar almacenes de credenciales
- Configurar clave de cifrado por tenant
- Solución de problemas
- Solución de problemas
Solución de problemas
Después de instalar Automation Suite en AKS, cuando compruebas el estado del Automation Suite Robot , este devuelve un estado incorrecto: "[POD_UNHEALTHY] El pod asrobots-migraciones-cvzfn del espacio de nombres uipath está en estado fallido.
Los pods en el espacio de nombres de UiPath se atascaban al habilitar los taints de nodo personalizados
Los pods en el espacio de nombres de UiPath no se ejecutan cuando se habilitan los taints de nodo personalizados. Los pods no pueden comunicarse con el webhook adminctl que inyecta tolerancias de pod en un entorno EKS.
admctl
desde el CIDR del clúster o 0.0.0.0/0
.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-all-ingress-to-admctl
namespace: uipath
spec:
podSelector:
matchLabels:
app: admctl-webhook
ingress:
- from:
- ipBlock:
cidr: <cluster-pod-cdr> or "0.0.0.0/0"
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-all-ingress-to-admctl
namespace: uipath
spec:
podSelector:
matchLabels:
app: admctl-webhook
ingress:
- from:
- ipBlock:
cidr: <cluster-pod-cdr> or "0.0.0.0/0"
Los pods no pueden comunicarse con el FQDN en un entorno de proxy y se muestra el siguiente error:
System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.
System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.
ServiceEntry
, como se muestra en el siguiente ejemplo:
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
name: proxy
namespace: uipath
spec:
hosts:
- <proxy-host>
addresses:
- <proxy-ip>/32
ports:
- number: <proxy-port>
name: tcp
protocol: TCP
location: MESH_EXTERNAL
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
name: proxy
namespace: uipath
spec:
hosts:
- <proxy-host>
addresses:
- <proxy-ip>/32
ports:
- number: <proxy-port>
name: tcp
protocol: TCP
location: MESH_EXTERNAL
El fallo se produce principalmente en los nodos habilitados para FIPS al utilizar Azure Files con el protocolo NFS.
asrobots-pvc-package-cache
falla.
Esto sucede porque el clúster de AKS no puede conectarse a Azure Files.
Por ejemplo, puede mostrarse el siguiente mensaje de error:
failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}
failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}
Para solucionar este problema, debes conceder a Automation Suite acceso al recurso de Azure
- En Azure, navega al grupo de recursos de AKS y luego abre la página de red virtual deseada. Por ejemplo, en este caso, la red virtual es
ci-asaks4421698
. - En la lista Subredes, selecciona la subred deseada. Por ejemplo, en este caso, la subred es
ci-asaks4421698
. - En la parte superior de la lista de subredes, haz clic en Gestionar usuarios. Se abre la página Control de acceso.
- Haz clic en Añadir asignación de rol.
- Busca el rol de Colaborador de red.
- Selecciona Identidad gestionada.
- Cambia a la pestaña Miembros.
- Selecciona Identidad gestionada y luego selecciona Kubernetes Service.
- Selecciona el nombre del clúster de AKS.
- Haz clic en Revisar y Asignar.
Al actualizar de la versión 2023.4.3 a 2023.10, tienes problemas con el aprovisionamiento de AI Center.
"exception":"sun.security.pkcs11.wrapper.PKCS11Exception: CKR_KEY_SIZE_RANGE
Puedes solucionar el problema siguiendo los siguientes pasos:
-
Captura el configmap
coredns
existente desde el clúster en ejecución:kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml
kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml -
Edita el archivo
coredns-config.yaml
para anexar la reescriturafqdn
en la configuración.-
Cambia el nombre del configmap a
coredns-custom
. -
Añade el siguiente bloque de código a tu archivo
coredns-config.yaml
. Asegúrate de que el bloque de código esté antes de la líneakubernetes cluster.local in-addr.arpa ip6.arp
.rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local }
rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local } -
Reemplaza
<cluster-fqdn>
por el valor real.
apiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-system
apiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-system -
-
Crea el configmap
coredns-custom
:kubectl apply -f coredns-config.yaml
kubectl apply -f coredns-config.yaml -
Reemplaza la referencia del volumen desde
coredns
acoredns-custom
en la implementacióncoredns
en el espacio de nombreskube-system
:volumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volume
volumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volume -
Reinicia la implementación
coredns
y asegúrate de que los podscoredns
estén en funcionamiento sin ningún problema:kubectl rollout restart deployment -n kube-system coredns
kubectl rollout restart deployment -n kube-system coredns -
Ahora deberías poder iniciar Automation Hub y Apps.
- Error en la comprobación de estado del Automation Suite Robot
- Descripción
- Posible problema
- Solución
- Los pods en el espacio de nombres de UiPath se atascaban al habilitar los taints de nodo personalizados
- Descripción
- Solución
- Los pods no pueden comunicarse con FQDN en un entorno de proxy
- Descripción
- Solución
- El aprovisionamiento de Automation Suite Robots falla
- Descripción
- Posible problema
- Solución
- Fallo de aprovisionamiento de AI Center después de actualizar a 2023.10
- Descripción
- Solución
- No se puede iniciar Automation Hub y Apps con la configuración de proxy
- Descripción
- Solución