- Überblick
- Anforderungen
- Installation
- Fragen und Antworten: Bereitstellungsvorlagen
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- Online-Auswertungsinstallation mit einem Knoten
- Offline-Auswertungsinstallation mit einem Knoten
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des Lastausgleichs
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- HA-fähige Online-Produktionsinstallation mit mehreren Knoten
- HA-fähige Offline-Produktionsinstallation mit mehreren Knoten
- Disaster Recovery – Installieren des sekundären Clusters
- Herunterladen der Installationspakete
- install-uipath.sh-Parameter
- Aktivieren eines High Availability Add-ons für den Cluster
- Document Understanding-Konfigurationsdatei
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Wechsel zum sekundären Cluster
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv-/Passiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv-Bereitstellung
- Überwachung und Warnungen
- Migration und Upgrade
- Migrationsoptionen
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren von eigenständigen Insights
- Schritt 7: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Produktspezifische Konfiguration
- Nicht synchronisiertes Task Mining
- Bereinigen der Task Mining-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Automatisches Bereinigen von Longhorn-Snapshots
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- GPU-Knoten von Nichtverfügbarkeit von Ressourcen betroffen
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der PVC-Größe
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Patch zur Rückgewinnung von Speicherplatz
- Sicherung aufgrund des Fehlers „TooManySnapshots“ fehlgeschlagen
- Alle Longhorn-Replikate sind fehlerhaft
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- Probleme beim Zugriff auf das schreibgeschützte ArgoCD-Konto
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Prometheus im Zustand „CrashloopBackoff“ mit OOM-Fehler (Out-of-Memory)
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Verwenden des Automation Suite-Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
Automation Suite unter Linux – Installationsanleitung
Bereinigen der Task Mining-Datenbank
Auf dieser Seite werden die erforderlichen Wartungsaufgaben für die Task Mining-Datenbanken beschrieben.
[AutomationSuite_Task_Mining]
verwendet ein einzelnes Schema [tddiscovery]
für die Datenspeicherung. In erster Linie speichert Task Mining die Daten im Objektspeicher, wodurch die Notwendigkeit häufiger Datenbankwartungen verringert wird. Bei Bedarf können Sie das Datenbankwartungsskript Remove_Active_History.sql
verwenden, um die folgende Datenbanktabelle regelmäßig zu bereinigen:
-
[AutomationSuite_Task_Mining].[tddiscovery].[ActivityHistory]
[AutomationSuite_Task_Mining]
, bevor Sie Skripts ausführen.
Es werden folgende Voraussetzungen angenommen:
-
Sie haben Zugriff auf die Datenbank
[AutomationSuite_Task_Mining]
mit den erforderlichen Berechtigungen.
CREATE PROCEDURE [tddiscovery].[Delete_TaskMining_ActivityHistory]
@CutoffTimeStamp datetime2,
@BatchSize INT = 10000
AS
BEGIN
DECLARE @total_deleted_items BIGINT = 0;
SET NOCOUNT ON;
-- delete ActivityHistoryItems
DECLARE @Deleted_Rows_ActivityHistoryItems INT = @BatchSize;
WHILE(@Deleted_Rows_ActivityHistoryItems = @BatchSize)
BEGIN
DELETE TOP(@BatchSize) FROM [tddiscovery].[ActivityHistory] WHERE At <= @CutoffTimeStamp;
SET @Deleted_Rows_ActivityHistoryItems = @@ROWCOUNT;
SET @total_deleted_items = @Deleted_Rows_ActivityHistoryItems + @total_deleted_items;
END;
PRINT('The script executed successfully!');
PRINT('Total deleted rows from [tddiscovery].[ActivityHistory]: ' + CONVERT(NVARCHAR, @total_deleted_items));
END;
GO
CREATE PROCEDURE [tddiscovery].[Delete_TaskMining_ActivityHistory]
@CutoffTimeStamp datetime2,
@BatchSize INT = 10000
AS
BEGIN
DECLARE @total_deleted_items BIGINT = 0;
SET NOCOUNT ON;
-- delete ActivityHistoryItems
DECLARE @Deleted_Rows_ActivityHistoryItems INT = @BatchSize;
WHILE(@Deleted_Rows_ActivityHistoryItems = @BatchSize)
BEGIN
DELETE TOP(@BatchSize) FROM [tddiscovery].[ActivityHistory] WHERE At <= @CutoffTimeStamp;
SET @Deleted_Rows_ActivityHistoryItems = @@ROWCOUNT;
SET @total_deleted_items = @Deleted_Rows_ActivityHistoryItems + @total_deleted_items;
END;
PRINT('The script executed successfully!');
PRINT('Total deleted rows from [tddiscovery].[ActivityHistory]: ' + CONVERT(NVARCHAR, @total_deleted_items));
END;
GO
-
Führen Sie das
Remove_Active_History.sql
-Datenbankwartungsskript aus, um die gespeicherte ProzedurDelete_TaskMining_ActivityHistory
zu erstellen.Hinweis:Verwenden Sie immer die neueste Version der gespeicherten Prozedur.
Es wird dringend empfohlen, zuvor ausgeführte gespeicherte SQL-Prozeduren zu archivieren, indem Sie die gespeicherten Prozeduren umbenennen. Dies bietet die Möglichkeit, potenzielle Probleme oder Anomalien innerhalb dieser bestimmten Version der gespeicherten SQL-Prozedur zu erkennen und zu beheben. Der folgende Code enthält ein Beispiel zum Umbenennen einer gespeicherten SQL-Prozedur zu Archivierungszwecken.
EXEC sp_rename '[tddiscovery].[Delete_TaskMining_ActivityHistory]', '[Delete_TaskMining_ActivityHistory_2024-10-10_001]';
EXEC sp_rename '[tddiscovery].[Delete_TaskMining_ActivityHistory]', '[Delete_TaskMining_ActivityHistory_2024-10-10_001]'; -
Führen Sie die gespeicherte Prozedur
Delete_TaskMining_ActivityHistory
aus. Dadurch werden alle Daten im Zusammenhang mit dem Aktivitätsverlauf für einen Ausschlusszeitstempel aus der Tabelle[AutomationSuite_Task_Mining].[tddiscovery].[ActivityHistory]
gelöscht.
PROCEDURE [tddiscovery].[Delete_TaskMining_ActivityHistory]
-Skripts sicher, dass die Task Mining-Nutzung angehalten ist.
Obwohl es keine Einschränkung für das Löschen von Daten mithilfe einer gespeicherten SQL-Prozedur gibt, wäre es sinnvoll, den Aktivitätsverlauf im System für einen Mindestzeitraum aufzubewahren, z. B. 30 Tage, um aktuelle Aktivitätsdatensätze zu erhalten. Dies bietet auch eine Möglichkeit, potenzielle Probleme oder Anomalien innerhalb der gespeicherten SQL-Prozedur zu erkennen und zu beheben, bevor sie endgültig gelöscht wird.
Delete_TaskMining_ActivityHistory
beschrieben.
Parameter |
Beschreibung |
Obligatorisch: J/N |
@CutoffTimeStamp |
Löschen Sie alle Daten vor einem bestimmten Zeitstempel (z. B. 2021-01-01 01:00:05). Hinweis:
Geben Sie keinen Zeitstempel an, der zu einer leeren Tabelle führt. |
Y |
@BatchSize INT = 10000 |
Die Anzahl der Zeilen, die gleichzeitig gelöscht werden sollen. Auf diese Weise können Sie die Daten Batch für Batch löschen. Der Standardwert ist auf 10.000 festgelegt. |
N |
DECLARE @ProcessTime datetime2;
SET @ProcessTime = '2024-07-11 13:44:42.7856026';
EXEC [tddiscovery].[Delete_TaskMining_ActivityHistory] @CutoffTimeStamp = @ProcessTime;
DECLARE @ProcessTime datetime2;
SET @ProcessTime = '2024-07-11 13:44:42.7856026';
EXEC [tddiscovery].[Delete_TaskMining_ActivityHistory] @CutoffTimeStamp = @ProcessTime;
Weitere Informationen finden Sie in der offiziellen Microsoft -Dokumentation zu gespeicherten Prozeduren.