- Überblick
- Anforderungen
- Installation
- Fragen und Antworten: Bereitstellungsvorlagen
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- Online-Auswertungsinstallation mit einem Knoten
- Offline-Auswertungsinstallation mit einem Knoten
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des Lastausgleichs
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- HA-fähige Online-Produktionsinstallation mit mehreren Knoten
- HA-fähige Offline-Produktionsinstallation mit mehreren Knoten
- Disaster Recovery – Installieren des sekundären Clusters
- Herunterladen der Installationspakete
- install-uipath.sh-Parameter
- Aktivieren eines High Availability Add-ons für den Cluster
- Document Understanding-Konfigurationsdatei
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Wechsel zum sekundären Cluster
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv-/Passiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv-Bereitstellung
- Überwachung und Warnungen
- Verwendung des Überwachungs-Stacks
- Warnungs-Runbooks
- Migration und Upgrade
- Migrationsoptionen
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren von eigenständigen Insights
- Schritt 7: Löschen des Standardmandanten
- Durchführen der Migration eines einzelnen Mandanten
- Produktspezifische Konfiguration
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Automatisches Bereinigen von Longhorn-Snapshots
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- So arbeiten Sie mit Zertifikaten
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- GPU-Knoten von Nichtverfügbarkeit von Ressourcen betroffen
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der PVC-Größe
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Patch zur Rückgewinnung von Speicherplatz
- Sicherung aufgrund des Fehlers „TooManySnapshots“ fehlgeschlagen
- Alle Longhorn-Replikate sind fehlerhaft
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- Probleme beim Zugriff auf das schreibgeschützte ArgoCD-Konto
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Prometheus im Zustand „CrashloopBackoff“ mit OOM-Fehler (Out-of-Memory)
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Fehler beim Konfigurieren von E-Mail-Warnungen nach dem Upgrade
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Fehler bei der Bereitstellung von ML-Fähigkeiten aufgrund des Ablaufs des Tokens
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Verwenden des Automation Suite-Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen

Automation Suite unter Linux – Installationsanleitung
Verwendung des Überwachungs-Stacks
Der Überwachungs-Stack für Automation Suite-Cluster umfasst Prometheus, Grafana und Alertmanager, die in der Benutzeroberfläche von Rancher Cluster Explorer integriert sind.
Knotenfehler können zu einem Herunterfahren von Kubernetes führen, wodurch Prometheus-Warnungen unterbrochen werden. Um das zu verhindern, empfehlen wir die Einrichtung einer separaten Warnung auf dem RKE2-Server.
Auf dieser Seite wird eine Reihe von Überwachungsszenarien beschrieben. Weitere Informationen finden Sie in der offiziellen Rancher-Dokumentation zur Verwendung von Rancher Monitoring.
Wenn Sie Sammler zum Exportieren von Metriken in Tools von Drittanbietern verwenden, kann die Aktivierung der Anwendungsüberwachung die Funktionalität der Automation Suite beeinträchtigen.
Der Überwachungs-Stack für Automation Suite-Cluster umfasst Prometheus, Grafana, Alert Manager und das Longhorn-Dashboard.
Auf dieser Seite wird eine Reihe von Überwachungsszenarien beschrieben.
Weitere Informationen finden Sie in der offiziellen Rancher-Dokumentation zur Verwendung von Rancher Monitoring.
Sie können über die folgenden URLs einzeln auf die Automation Suite Überwachungstools zugreifen:
Anwendung |
Tool |
URL |
Beispiel |
---|---|---|---|
Metriken |
Prometheus |
|
|
Dashboard |
Grafana |
|
|
Alert Management |
Alertmanager |
|
|
Persistenter Blockspeicher |
Longhorn-Dashboard |
|
|
Um zum ersten Mal auf die Überwachungstools zuzugreifen, melden Sie sich als Administrator mit den folgenden Standardanmeldeinformationen an:
- Benutzername: admin
- Kennwort: Um das Kennwort abzurufen, führen Sie den folgenden Befehl aus:
kubectl get secrets/dex-static-credential -n uipath-auth -o "jsonpath={.data['password']}" | base64 -d
kubectl get secrets/dex-static-credential -n uipath-auth -o "jsonpath={.data['password']}" | base64 -d
Führen Sie die folgenden Schritte aus, um das Standardkennwort zu aktualisieren, das für die Dex-Authentifizierung beim Zugriff auf die Überwachungstools verwendet wird.
Dex ist eine einfache Authentifizierungsmethode, die über die Überwachungstools gelegt wird. Daher wirkt sich die Aktualisierung des Dex-Kennworts nicht auf die Kennwörter für die Überwachungstools aus. In diesem Szenario bleiben die Kennwörter für die Überwachungstools die gleichen wie zuvor.
-
Führen Sie den folgenden Befehl aus, indem Sie
newpassword
durch Ihr neues Kennwort ersetzen:password="newpassword" password=$(echo -n $password | base64) kubectl patch secret dex-static-credential -n uipath-auth --type='json' -p="[{'op': 'replace', 'path': '/data/password', 'value': '$password'}]"
password="newpassword" password=$(echo -n $password | base64) kubectl patch secret dex-static-credential -n uipath-auth --type='json' -p="[{'op': 'replace', 'path': '/data/password', 'value': '$password'}]" -
Führen Sie den folgenden Befehl aus, indem Sie
<cluster_config.json>
durch den Pfad zu Ihrer Konfigurationsdatei ersetzen:/opt/UiPathAutomationSuite/UiPath_Installer/install-uipath.sh -i <cluster_config.json> -f -o output.json --accept-license-agreement
/opt/UiPathAutomationSuite/UiPath_Installer/install-uipath.sh -i <cluster_config.json> -f -o output.json --accept-license-agreement
https://monitoring.fqdn/metrics
zu Prometheus und wählen Sie die Registerkarte Warnungen aus. Hier sehen Sie alle in der Automation Suite konfigurierten Warnungen.
Um die aktiven Warnungen anzuzeigen, filtern Sie den Warnungsstatus, indem Sie das Kontrollkästchen Auslösen und das Kontrollkästchen Anmerkungen anzeigen oben aktivieren. Hier sehen Sie alle Warnungen, die derzeit ausgelöst werden, und die entsprechenden Meldungen.
Wenn Warnungen zu laut sind, können Sie sie stumm schalten. Führen Sie dazu die folgenden Schritte aus:
uipathctl
im Automation Suite-Installationsordner: .../UiPathAutomationSuite/UiPath_Installer/bin
Bevor Sie mit dem Konfigurieren der Warnungen beginnen, stellen Sie sicher, dass Sie kubectl aktivieren.
Um nach der Installation eine neue E-Mail-Konfiguration hinzuzufügen, führen Sie den folgenden Befehl aus:
./uipathctl config alerts add-email \
--name test \
--to "admin@example.com" \
--from "admin@example.com" \
--smtp server.mycompany.com \
--username admin \
--password somesecret \
--require-tls \
--ca-file <path_to_ca_file> \
--cert-file <path_to_cert_file> \
--key-file <path_to_key_file> \
--send-resolved
./uipathctl config alerts add-email \
--name test \
--to "admin@example.com" \
--from "admin@example.com" \
--smtp server.mycompany.com \
--username admin \
--password somesecret \
--require-tls \
--ca-file <path_to_ca_file> \
--cert-file <path_to_cert_file> \
--key-file <path_to_key_file> \
--send-resolved
Markieren |
Beschreibung |
Beispiel |
---|---|---|
|
Der Name der E-Mail-Konfiguration |
|
|
Die E-Mail-Adresse des Empfängers |
|
|
Die E-Mail-Adresse des Absenders. |
|
|
SMTP-Server-URL oder IP-Adresse und Portnummer |
|
|
Benutzername für die Authentifizierung |
|
|
Authentifizierungskennwort |
|
|
Boolesches Flag, das angibt, dass TLS auf dem SMTP-Server aktiviert ist. |
Keine Angabe |
|
Dateipfad, der das Zertifikat der Zertifizierungsstelle des SMTP-Servers enthält. Dies ist optional, wenn die Zertifizierungsstelle privat ist. |
|
|
Dateipfad, der das Zertifikat des SMTP-Servers enthält. Dies ist optional, wenn das Zertifikat privat ist. |
|
|
Dateipfad, der den privaten Schlüssel des Zertifikats des SMTP-Servers enthält. Dies ist erforderlich, wenn das Zertifikat privat ist. |
|
|
Boolesches Flag, um eine E-Mail zu senden, sobald die Warnung beendet ist. |
Keine Angabe |
Um eine E-Mail-Konfiguration zu entfernen, müssen Sie den folgenden Befehl ausführen. Stellen Sie sicher, dass Sie den Namen der E-Mail-Konfiguration übergeben, die Sie entfernen möchten.
./uipathctl config alerts remove-email --name test
./uipathctl config alerts remove-email --name test
Um eine E-Mail-Konfiguration zu aktualisieren, müssen Sie den folgenden Befehl ausführen. Stellen Sie sicher, dass Sie den Namen der E-Mail-Konfiguration, die Sie aktualisieren möchten, und die zusätzlichen optionalen Parameter, die Sie bearbeiten möchten, übergeben. Diese Parameter sind die gleichen wie beim Hinzufügen einer neuen E-Mail-Konfiguration. Sie können ein oder mehrere Flags gleichzeitig übergeben.
./uipathctl config alerts update-email --name test [additional_flags]
./uipathctl config alerts update-email --name test [additional_flags]
Um auf Grafana-Dashboards zuzugreifen, müssen Sie Ihre Anmeldeinformationen abrufen und zur Anmeldung verwenden:
-
Benutzername:
kubectl -n cattle-monitoring-system get secrets/rancher-monitoring-grafana -o "jsonpath={.data.admin-user}" | base64 -d; echo
kubectl -n cattle-monitoring-system get secrets/rancher-monitoring-grafana -o "jsonpath={.data.admin-user}" | base64 -d; echo -
Kennwort:
kubectl -n cattle-monitoring-system get secrets/rancher-monitoring-grafana -o "jsonpath={.data.admin-password}" | base64 -d; echo
kubectl -n cattle-monitoring-system get secrets/rancher-monitoring-grafana -o "jsonpath={.data.admin-password}" | base64 -d; echo
Sie können das Istio Service Mesh über die folgenden Grafana-Dashboards überwachen: Istio Mesh und Istio Workload.
Dieses Dashboard zeigt das gesamte Anforderungsvolumen sowie die Häufigkeit von 400er und 500er Fehlern im gesamten Dienstgeflecht für den ausgewählten Zeitraum an. Die Daten werden in der oberen rechten Ecke des Fensters angezeigt. Diese Informationen finden Sie in den 4 Diagrammen oben.
Es zeigt auch die sofortige Erfolgsquote („Success Rate“) in den letzten Minuten für jeden einzelnen Dienst an. Beachten Sie, dass eine Success Rate von NaN angibt, dass der Dienst derzeit keinen Datenverkehr leistet.
Dieses Dashboard zeigt die Datenverkehrsmetriken über den ausgewählten Zeitbereich in der oberen rechten Ecke des Fensters an.
Verwenden Sie die Selektoren oben im Dashboard, um bei bestimmten Workloads einen Drilldown durchzuführen. Von besonderem Interesse ist der Namespace uipath.
Im oberen Abschnitt werden die Gesamtmetriken angezeigt, im Abschnitt Inbound Workloads wird der Datenverkehr basierend auf der Herkunft dargestellt und im Abschnitt Outbound Services wird Datenverkehr basierend auf dem Ziel dargestellt.
Sie können persistente Volumes über das Dashboard Kubernetes/Persistent Volumes überwachen. Sie können den freien und genutzten Platz für jedes Volume nachverfolgen.
Sie können auch den Status jedes Volumes überprüfen, indem Sie im Menü Storage des Cluster Explorer das Element PersistentVolumes auswählen.
Um die Hardwarenutzung pro Knoten zu überprüfen, können Sie das Dashboard Nodes verwenden. Angaben zu CPU, Arbeitsspeicher, Datenträger und Netzwerk können angezeigt werden.
Sie können die Hardwarenutzung für bestimmte Workloads mithilfe des Dashboards Kubernetes / Compute Resources / Namespace (Workloads) überwachen. Wählen Sie den Namespace uipath aus, um die erforderlichen Daten abzurufen.
- Wählen Sie den abwärts zeigenden Pfeil neben dem Diagrammtitel und dann Share aus.
- Wählen Sie die Registerkarte Snapshot aus und legen Sie den Namen für den Snapshot,das Ablaufdatum Expire und Timeout fest.
- Wählen Sie Veröffentlichen in Snapshot.raintank.io aus.
Weitere Informationen finden Sie in der Grafana-Dokumentation zum Freigeben von Dashboards.
Weitere Informationen zum Erstellen benutzerdefinierter persistenter Grafana-Dashboards finden Sie in der Rancher-Dokumentation.
Administratorzugriff auf Grafana wird in der Regel nicht in Automation Suite-Clustern benötigt, da anonyme Benutzer standardmäßig Lesezugriff auf Dashboards haben und benutzerdefinierte persistente Dashboards anhand der zuvor in diesem Dokument verlinkten speziellen Kubernetes-Anweisungen erstellt werden müssen.
Dennoch ist der Administratorzugriff auf Grafana mit den folgenden Anweisungen möglich.
Der Standardbenutzername und das Kennwort für den Grafana-Administratorzugriff können wie folgt abgerufen werden:
kubectl get secret -n cattle-monitoring-system rancher-monitoring-grafana -o jsonpath='{.data.admin-user}' | base64 -d && echo
kubectl get secret -n cattle-monitoring-system rancher-monitoring-grafana -o jsonpath='{.data.admin-password}' | base64 -d && echo
kubectl get secret -n cattle-monitoring-system rancher-monitoring-grafana -o jsonpath='{.data.admin-user}' | base64 -d && echo
kubectl get secret -n cattle-monitoring-system rancher-monitoring-grafana -o jsonpath='{.data.admin-password}' | base64 -d && echo
Beachten Sie, dass in Automation Suite-Clustern mit Hochverfügbarkeit mehrere Grafana-Pods vorhanden sind, um im Falle eines Knotenfehlers einen unterbrechungsfreien Lesezugriff sowie mehr Leseabfragen zu ermöglichen. Dies ist nicht mit dem Administratorzugriff kompatibel, da die Pods den Sitzungsstatus nicht freigeben und die Anmeldung dies erfordert. Um dies zu umgehen, muss die Anzahl der Grafana-Replikate vorübergehend auf 1 skaliert werden, solange der Administratorzugriff gewünscht wird. Siehe die Anweisungen zum Skalieren der Anzahl der Grafana-Replikate:
# scale down
kubectl scale -n cattle-monitoring-system deployment/rancher-monitoring-grafana --replicas=1
# scale up
kubectl scale -n cattle-monitoring-system deployment/rancher-monitoring-grafana --replicas=2
# scale down
kubectl scale -n cattle-monitoring-system deployment/rancher-monitoring-grafana --replicas=1
# scale up
kubectl scale -n cattle-monitoring-system deployment/rancher-monitoring-grafana --replicas=2
Die Dokumentation zu den verfügbaren Metriken finden Sie hier:
Sie können benutzerdefinierte Warnungen mithilfe einer Prometheus-Abfrage mit einem booleschen Ausdruck erstellen.
- Wählen Sie dazu Prometheus Rules im Menü Erweitert des Monitoring Dashboard aus.
- Wählen Sie Erstellen in der oberen rechten Ecke des Fensters aus, um eine neue Warnung zu erstellen, und folgen Sie der Rancher-Dokumentation: PrometheusRules
- Wenn die Warnung ausgelöst wird, sollte sie im Monitoring Dashboard angezeigt werden. Darüber hinaus wird er an einen beliebigen konfigurierten Receiver weitergeleitet.
Um den Status von Pods, Bereitstellungen, StatefulSets usw. zu sehen, können Sie die Benutzeroberfläche des Cluster Explorers verwenden. Dies ist die gleiche Landing-Page wie die, die nach der Anmeldung beim Rancher-Server-Endpunkt aufgerufen wird. Die Startseite zeigt eine Zusammenfassung mit Drilldowns in bestimmte Details für jeden Ressourcentyp auf der linken Seite. Beachten Sie den Namespace-Selektor oben auf der Seite. Dieses Dashboard kann auch durch das Tool „Lens“ ersetzt werden.
Prometheus verwendet die Remote-Write-Funktion von Prometheus, um Prometheus-Metriken zu sammeln und in ein externes System zu exportieren.
remote_write
in einem Automation Suite-Cluster:
- Zugreifen auf die Überwachungstools
- Überblick
- Authentifizierung des Überwachungstools
- Dex-Authentifizierung
- Überprüfen aktuell ausgelöster Warnungen
- Stummschalten von Warnungen
- Konfigurieren von Warnungen
- Hinzufügen einer neuen E-Mail-Konfiguration
- Entfernen einer E-Mail-Konfiguration
- Aktualisieren einer E-Mail-Konfiguration
- Zugriff auf das Grafana-Dashboard
- Überwachen des Dienstgeflechts
- Istio Mesh-Dashboard
- Istio-Workload-Dashboard
- Überwachung persistenter Volumes
- Überwachung der Hardwarenutzung
- Erstellen einer gemeinsam nutzbaren visuellen Momentaufnahme eines Grafana-Diagramms
- Erstellen benutzerdefinierter persistenter Grafana-Dashboards
- Administratorzugriff auf Grafana
- Abfragen von Prometheus
- Erstellen benutzerdefinierter Warnungen
- Überwachung des Kubernetes-Ressourcenstatus
- Exportieren von Prometheus-Metriken in ein externes System