Die Informationen auf dieser Seite gelten nur, wenn Sie in0cluster-Speicher verwenden. Wenn Sie ein Azure-Speicherkonto, AWS S3 oder einen anderen S3-kompatiblen Speicher verwenden, benötigen Sie dies nicht.
Ein Automation Suite-Cluster verwendet die Objectstore-Festplatten, die an seine Serverknoten angefügt sind, als Speicherressourcen, die für alle in Ihrem Cluster aktivierten Produkte verfügbar sind. Jedes Produkt verwendet diese Ressourcen anders.
Um Ihre Speicheranforderungen zu verstehen und entsprechend zu planen, lesen Sie die folgende Terminologie und Richtlinien.
Terminologie
- Datenträgergröße des Serverknotens – Die Größe aller einzelnen Datenträger, die mit jedem Serverknoten verbunden sind.
- Datenträger auf jedem Server können unterschiedliche Größen haben, solange die Summe aller Datenträgergrößen auf allen Servern identisch ist.
- Gesamte Datenträgergröße des Clusters – Datenträgergröße des Serverknotens multipliziert mit der Anzahl der Serverknoten.
- Verfügbarer Speicher der Anwendung – Die Menge des verfügbaren Speichers für Anwendungen.
- Der verfügbare Speicher der Anwendung ist niedriger als der gesamte zugeordnete Speicher. Dadurch soll sichergestellt werden, dass wir eine höhere Ausfallsicherheit und hohe Verfügbarkeit haben.
The following table describes the multi-node HA-ready hardware requirements for the Complete (variant A) product selection in the context of the previously introduced terms.
Number of server nodes | Server node disk size | Total cluster disk size | Application available storage |
---|---|---|---|
3 | 512 GiB | 1.5 TiB | 512 GiB |
Schätzung des von Ihren Anwendungen verwendeten Speichers
Wenn Sie Produkte im Cluster aktivieren und verwenden, verbrauchen sie einen Teil des Speichers aus dem verfügbaren Speicher der Anwendung. Produkte haben in der Regel einen kleinen Aktivierungs-Footprint sowie einen nutzungsabhängigen Footprint, der je nach Anwendungsfall, Nutzungsumfang und Projekt variiert. Der Speicherverbrauch wird gleichmäßig auf alle Speicherressourcen (Datenträger) verteilt, und Sie können die Speicherauslastung mithilfe des Automation Suite-Überwachungsstapels überwachen.
So überwachen Sie den verfügbaren Speicher
Sie erhalten eine Warnung mit einer Warnung, wenn der Speicherverbrauch 75 % überschreitet. Sie erhalten eine weitere kritische Warnung, wenn der Speicherverbrauch 85 % überschreitet; In diesem Fall ist der Speicher schreibgeschützt.
Erhöhen der Speicherkapazität
Wenn Ihre bewerteten Anforderungen nicht die empfohlenen Hardwareanforderungen erfüllen, können Sie mit einer oder beiden der folgenden Methoden mehr Speicherkapazität hinzufügen:
-
Sie müssen auf allen Serverknoten derselben Größe einen neuen Datenträger hinzufügen.
-
Informationen zum Konfigurieren des Datenträgers finden Sie in unseren Dokumenten.
So berechnen Sie Ihren Nutzungsbedarf
Sie können Ihren Speicherverbrauch mithilfe der produktspezifischen Metrik in den folgenden Tabellen schätzen. In diesen Tabellen wird beschrieben, wie viele Inhalte Sie sofort in Ihrem Cluster platzieren können. Als Referenz enthalten sie den Speicherbedarf eines typischen Nutzungsszenarios jedes Produkts.
Product | Storage-driving metric | Storage per metric | Typical use case |
---|---|---|---|
Shared suite capabilities | Application logs | N/A | Typically, 7 days of application logs is around 25 GiB. |
Orchestrator | Size of the automation packages for deployed automations Size of the storage buckets of deployed automation | Mb per package Mb per bucket | Typically, a package is 5 Mb, and buckets, if any, are less than 1 Mb. A mature enterprise has 5 Gb of packages and 6 Gb of buckets deployed. |
Action Center | Number of documents stored by customer in document tasks Number of tasks created | Gb per document in document tasks Number of tasks | Typically, a document takes 0.15 Mb, and the forms to fill take an additional 0.15 Kb. In a mature enterprise this can roll up to 4Gb in total. |
Test Manager | Number of attachments and screenshots stored by users | Mb of attachments and screenshots | Typically, all files and attachments add up to approximately 5 Gb. |
Insights | Enablement footprint and the number of dashboards published | Gb per dashboard | 2 Gb are required for enablement, with the storage footprint growing with the number. A well-established enterprise-scale deployment requires another few Gb for all the dashboards. |
Automation Hub | N/A | N/A | 2 Gb fixed footprint |
Automation Ops | N/A | N/A | No storage footprint |
Apps | Number of apps deployed and enablement footprint | Number of apps, size of apps, size of database supporting apps | Typically, the database takes approximately 5 Gb, and a typical complex app consumes approximately 15 Mb. |
AI Center | Number of uploaded ML packages Number of datasets for analysis Number of published pipelines | Gb per package Gb per dataset Number of pipelines | A typical and established installation will consume 8 Gb for 5 packages and an additional 1Gb for the datasets. A pipeline may consume an additional 50 Gb, but only when actively running. |
Document Understanding | Size of ML model Size of OCR model Number of stored documents | Gb per ML model Gb per OCR model Number of documents stored | In a mature deployment, 12Gb will go to ML model, 17Gb to the OCR, and 50GB to all documents stored. |
Task Mining | Hours of user activity analyzed to suggest automation patterns | Gb per hour | Typically, about 200Gb of activity log data should be analyzed to suggest meaningful automations. Highly repetitive tasks however, may require much less data. |
Process Mining | the number of events in millions the case and event fields | the number of events in millions x the number of case and event fields x 0.02 Gb | Minimal footprint only used by users uploading data via the Process Mining portal. Approximately 10 GB of storage should be enough in the beginning. |
Aktualisiert vor 4 Monaten