- Überblick
- Anforderungen
- Vor der Installation
- Vorbereiten der Installation
- Installieren und Konfigurieren des Dienstgeflechts
- Herunterladen der Installationspakete
- Konfigurieren der OCI-konformen Registrierung
- Erteilen von Installationsberechtigungen
- Installieren und Konfigurieren des GitOps-Tools
- Bereitstellen von Redis über OperatorHub
- Anwenden verschiedener Konfigurationen
- Ausführen von uipathctl
- Installation
- Nach der Installation
- Migration und Upgrade
- Aktualisieren der Automation Suite
- Migrieren von eigenständigen Produkten zur Automation Suite
- Schritt 1: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 2: Aktualisieren des Schemas der wiederhergestellten Produktdatenbank
- Schritt 3: Verschieben der Identitätsorganisationsdaten von der eigenständigen Bereitstellung in die Automation Suite
- Schritt 4: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 5: Zusammenführen von Organisationen in der Automation Suite
- Schritt 6: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 7: Migrieren des eigenständigen Orchestrator
- Schritt 8: Migrieren von eigenständigen Insights
- Schritt 9: Löschen des Standardmandanten
- Durchführen der Migration eines einzelnen Mandanten
- Migrieren zwischen Automation Suite-Clustern
- Clusterverwaltung
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Fehlersuche und ‑behebung

Automation Suite in OpenShift – Installationsanleitung
Durchführen der Insights-Datenbankwartung
dbo
und read
. Beide Tabellen speichern Daten aus Orchestrator-Datenbanken und übergeben Daten untereinander. Im Laufe der Zeit speichern Tabellen eine große Datenmenge, die sich auf die Datenbankleistung auswirken kann. Sie können Speicherplatz freigeben, indem Sie Daten entfernen, die nicht relevant oder veraltet sind.
Der geschätzte Schwellenwert für das Speichern von Verlaufsdaten ist festgelegt auf
- Bis zu 100 Millionen Jobs
- Bis zu 1 Milliarde Auftragsereignisse
- Bis zu 100 Millionen Warteschlangenelemente
- Bis zu 500 Millionen Warteschlangenelementereignisse
- Bis zu 1 Milliarde Roboterprotokolle
[dbo].Jobs
, [dbo].JobEvents
, [dbo].QueueItems
, [dbo].QueueItemEvents
, [dbo].RobotLogs
zu löschen oder nur die [dbo].RobotLogs
.
PROCEDURE [read].[Delete_Insights_Data_Read]
und PROCEDURE [read].[Delete_Process_Logs_Read]
muss das Insights-Modul deaktiviert werden.
- Skripte mit dem Suffix
_DBO
werden verwendet, um Daten aus DBO-Schematabellen zu löschen. - Skripte mit dem Suffix
_Read
werden verwendet, um Daten aus Leseschematabellen zu löschen. - Große Batches können sich auf die Ausführungsgeschwindigkeit auswirken. Erwägen Sie die Verwendung der Standardbatchgröße, die auf 100.000 festgelegt ist.
PROCEDURE [read].[Delete_Insights_Data_Read]
und PROCEDURE [read].[Delete_Process_Logs_Read]
muss das Insights-Modul deaktiviert werden.
Jobs
, JobEvents
, QueueItems
, QueueItemEvents
, RobotLogs
) für einen Ausschlusszeitstempel zu löschen.
Gespeicherte SQL-Prozeduren | Parameter | Beschreibung |
---|---|---|
Delete_Insights_Data_DBO |
| Daten aus [dbo].[Jobs] ,
Tabellen
[dbo].[JobEvents] , [dbo].[QueueItems] , [dbo].[QueueItemEvents] , [dbo].[RobotLogs] auf Grundlage eines Zeitstempels mit Ausschlussfrist.
|
Delete_Insights_Data_Read | Keine Angabe | Kürzen Sie die Tabellen [read].Jobs , [read].JobEvents ,[read].QueueItems , [read].QueueItemEvents , [read].RobotLogs .
|
Die Widgets des Insights-Dashboards sind wieder verfügbar, nachdem die gespeicherte SQL-Prozedur 1 abgeschlossen ist und die Daten abgeglichen wurden. Bedenken Sie, dass das Abgleichen angesichts der großen Datenmenge mehrere Stunden beanspruchen kann.
Delete_Insights_Data_DBO
zum ersten Mal ausführen, erstellt es einen nicht geclusterten QueueItems.IX_CreationTime
-Index, um zukünftige Ausführungen zu beschleunigen.
Gespeicherte SQL-Prozedur 2: Löschen von RobotLogs-Daten basierend auf ProcessNames und Mandanten-ID
Generieren und speichern Sie diese gespeicherte SQL-Prozedur, um RobotsLogs basierend auf Prozessnamen und Mandanten-ID zu löschen.
Gespeicherte SQL-Prozeduren | Parameter | Beschreibung |
---|---|---|
Delete_Process_Logs_DBO |
Der Name des Orchestrator-Prozesses.
Die Mandanten-ID ist erforderlich, da zwei Mandanten Prozesse mit identischen Namen ausführen können.
Löschen Sie Daten in Batches von 100.000. Siehe Überlegungen. | Löschen Sie Daten aus der Tabelle [dbo].[RobotLogs] nach Prozessname und Mandanten-ID.
|
Delete_Process_Logs_Read |
| Kürzen Sie Tabelle [read].RobotLogs .
|