UiPath Documentation
automation-suite
2023.10
false
Important :
La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
UiPath logo, featuring letters U and I in white

Guide d'installation d'Automation Suite sur Linux

Dernière mise à jour 15 avr. 2026

Configurer Elasticsearch et Kibana

La pile EFK (Elasticsearch, Fluentd, Kibana) est une solution de journalisation centralisée qui vous permet de rechercher, d'analyser et de visualiser les données de journal. Fluentd collecte et envoie les journaux à Elasticsearch, Kibana récupère les journaux et vous permet de visualiser et d'analyser les données.

Automation Suite prend en charge Elasticsearch version 7.x.

Créer une clé secrète avec le mot de passe Elasticsearch

Si votre instance Elasticsearch nécessite des informations d'identification, créez une clé secrète avec son mot de passe dans le cluster.

kubectl -n cattle-logging-system create secret generic elastic-user --from-literal=password=<password>
kubectl -n cattle-logging-system create secret generic elastic-user --from-literal=password=<password>

ClusterOutput vers Elasticsearch

Exécutez la commande suivante pour ClusterOutput vers Elasticsearch. Remplacez les attributs suivants par ceux de votre configuration Elasticsearch :

  • <elasticsearch host> - l'hôte réseau de votre instance Elasticsearch ;

  • <elasticsearch port> - le port Elasticsearch pour la communication client ;

  • <secret key> - la clé secrète avec le mot de passe Elasticsearch ;

  • La valeur timekey dans elasticsearch.buffer - la fréquence de sortie, c'est-à-dire la fréquence à laquelle vous souhaitez transmettre les journaux ;

  • elasticsearch.scheme - le schéma d'URL. Les valeurs valides sont : http ou https.

    kubectl -n cattle-logging-system apply -f - <<"EOF"
    apiVersion: logging.banzaicloud.io/v1beta1
    kind: ClusterOutput
    metadata:
      name: es-output
    spec:
      elasticsearch:
        host: <elasticsearch host>
        port: <elasticsearch port>
        scheme: <http or https>
        ssl_verify: false
        ssl_version: TLSv1_2
        user: elastic
        password:
          valueFrom:
            secretKeyRef:
              name: elastic-user
              key: <secret key>
        buffer:
          timekey: 10m
          timekey_wait: 30s
          timekey_use_utc: true
    EOF
    kubectl -n cattle-logging-system apply -f - <<"EOF"
    apiVersion: logging.banzaicloud.io/v1beta1
    kind: ClusterOutput
    metadata:
      name: es-output
    spec:
      elasticsearch:
        host: <elasticsearch host>
        port: <elasticsearch port>
        scheme: <http or https>
        ssl_verify: false
        ssl_version: TLSv1_2
        user: elastic
        password:
          valueFrom:
            secretKeyRef:
              name: elastic-user
              key: <secret key>
        buffer:
          timekey: 10m
          timekey_wait: 30s
          timekey_use_utc: true
    EOF
    

ClusterFlow dans FluentD

Exécutez la commande suivante pour ClusterFlow dans FluendD :

kubectl -n cattle-logging-system apply -f - <<"EOF"
apiVersion: logging.banzaicloud.io/v1beta1
kind: ClusterFlow
metadata:
  name: es-flow
spec:
  filters:
    - tag_normaliser:
        format: ${namespace_name}/${pod_name}.${container_name}
  globalOutputRefs:
    - es-output
  match:
    - select:
        container_names:
          - istio-proxy
        namespaces:
          - istio-system
    - exclude:
        container_names:
          - istio-proxy
          - istio-init
          - aicenter-hit-count-update
    - exclude:
        namespaces:
          - fleet-system
          - cattle-gatekeeper-system
          - default
    - exclude:
        labels:
          app: csi-snapshotter
    - exclude:
        labels:
          app: csi-resizer
    - select: {}
EOF
kubectl -n cattle-logging-system apply -f - <<"EOF"
apiVersion: logging.banzaicloud.io/v1beta1
kind: ClusterFlow
metadata:
  name: es-flow
spec:
  filters:
    - tag_normaliser:
        format: ${namespace_name}/${pod_name}.${container_name}
  globalOutputRefs:
    - es-output
  match:
    - select:
        container_names:
          - istio-proxy
        namespaces:
          - istio-system
    - exclude:
        container_names:
          - istio-proxy
          - istio-init
          - aicenter-hit-count-update
    - exclude:
        namespaces:
          - fleet-system
          - cattle-gatekeeper-system
          - default
    - exclude:
        labels:
          app: csi-snapshotter
    - exclude:
        labels:
          app: csi-resizer
    - select: {}
EOF

Les journaux du cluster sont collectés et consignés dans le ClusterOutput.

Configuration de Kibana

  1. Sélectionnez Découvrir sous Analytique dans la barre latérale.

    docs image

  2. Sélectionnez Créer un modèle d'index , puis Créer un modèle d'index avec le nom Fluentd.

    docs image

  3. Sélectionnez Je ne veux pas utiliser le filtre d'heure dans la fenêtre Configurer les paramètres .

    docs image

  4. Sélectionnez Découvrir sous Kibana dans la barre latérale.

    docs image

    • Vous pouvez voir les journaux dans le tableau de bord.
      • docs image
    • Requête de journaux pour l'espace de noms UiPath et un service spécifique :
      • docs image

Cette page vous a-t-elle été utile ?

Connecter

Besoin d'aide ? Assistance

Vous souhaitez apprendre ? UiPath Academy

Vous avez des questions ? UiPath Forum

Rester à jour