Automation Suite
2023.10
False
Bannerhintergrundbild
Automation Suite unter Linux – Installationsanleitung
Letzte Aktualisierung 19. April 2024

Bewerten Ihres Speicherbedarfs

Hinweis: Die Informationen auf dieser Seite gelten nur, wenn Sie Speicher innerhalb des Clusters verwenden. Wenn Sie ein Azure-Speicherkonto, AWS S3 oder einen anderen S3-kompatiblen Speicher verwenden, benötigen Sie dies nicht.

Ein Automation Suite-Cluster verwendet die Objectstore-Festplatten, die an seine Serverknoten angefügt sind, als Speicherressourcen, die für alle in Ihrem Cluster aktivierten Produkte verfügbar sind. Jedes Produkt verwendet diese Ressourcen anders.

Um Ihre Speicheranforderungen zu verstehen und entsprechend zu planen, lesen Sie die folgende Terminologie und Richtlinien.

Terminologie

  • Datenträgergröße des Serverknotens – Die Größe aller einzelnen Datenträger, die mit jedem Serverknoten verbunden sind.

    • Datenträger auf jedem Server können unterschiedliche Größen haben, solange die Summe aller Datenträgergrößen auf allen Servern identisch ist.
  • Gesamte Datenträgergröße des Clusters – Datenträgergröße des Serverknotens multipliziert mit der Anzahl der Serverknoten.
  • Verfügbarer Speicher derAnwendung – Die Menge des verfügbaren Speichers für Anwendungen.

    • Der verfügbare Speicher der Anwendung ist niedriger als der gesamte zugeordnete Speicher. Dadurch soll sichergestellt werden, dass wir eine höhere Ausfallsicherheit und hohe Verfügbarkeit haben.

In der folgenden Tabelle werden die HA-fähigen Hardwareanforderungen für mehrere Knoten für die vollständige Produktauswahl im Kontext der zuvor eingeführten Begriffe beschrieben.

Anzahl der Serverknoten

Festplattengröße des Serverknotens

Gesamtgröße der Clusterfestplatte

Verfügbarer Speicher der Anwendung

3

512 GiB

1,5 TiB

512 GiB

Schätzung des von Ihren Anwendungen verwendeten Speichers

Wenn Sie Produkte im Cluster aktivieren und verwenden, verbrauchen sie einen Teil des Speichers aus dem verfügbaren Speicher der Anwendung. Produkte haben in der Regel einen kleinen Aktivierungs-Footprint sowie einen nutzungsabhängigen Footprint, der je nach Anwendungsfall, Nutzungsumfang und Projekt variiert. Der Speicherverbrauch wird gleichmäßig auf alle Speicherressourcen (Datenträger) verteilt, und Sie können die Speicherauslastung mithilfe des Automation Suite-Überwachungsstapels überwachen.

So überwachen Sie den verfügbaren Speicher

Sie erhalten eine Warnung mit einer Warnung, wenn der Speicherverbrauch 75 % überschreitet. Sie erhalten eine weitere kritische Warnung, wenn der Speicherverbrauch 85 % überschreitet; In diesem Fall ist der Speicher schreibgeschützt.

Erhöhen der Speicherkapazität

Wenn Ihre bewerteten Anforderungen nicht die empfohlenen Hardwareanforderungen erfüllen, können Sie mit einer oder beiden der folgenden Methoden mehr Speicherkapazität hinzufügen:

  1. Sie müssen auf allen Serverknoten derselben Größe einen neuen Datenträger hinzufügen.
  2. Informationen zum Konfigurieren des Datenträgers finden Sie in unseren Dokumenten.

So berechnen Sie Ihren Nutzungsbedarf

Sie können Ihren Speicherverbrauch mithilfe der produktspezifischen Metrik in den folgenden Tabellen schätzen. In diesen Tabellen wird beschrieben, wie viele Inhalte Sie sofort in Ihrem Cluster platzieren können. Als Referenz enthalten sie den Speicherbedarf eines typischen Nutzungsszenarios jedes Produkts.

Produkt

Speichertreibende Metrik

Speicher pro Metrik

Typischer Anwendungsfall

Gemeinsame Suite-Funktionen

  • Anwendungsprotokolle

Keine Angabe

In der Regel haben Anwendungsprotokolle für 7 Tage etwa 25 GiB.

Orchestrator

  • Größe der Automatisierungspakete für bereitgestellte Automatisierungen
  • Größe der Speicher-Buckets der bereitgestellten Automatisierung
  • MiB pro Paket
  • MiB pro Bucket

In der Regel ist ein Paket 5 MiB und Buckets, die vorhanden sind, sind weniger als 1 MiB. In einem ausgereiften Unternehmen werden 5 GiB an Paketen und 6 GiB an Buckets bereitgestellt.

Action Center

  • Anzahl der Dokumente, die vom Kunden in Dokumentaufgaben gespeichert sind
  • Anzahl der erstellten Aufgaben
  • GiB pro Dokument in Dokumentaufgaben
  • Anzahl der Aufgaben

In der Regel benötigt ein Dokument 0,15 MiB und die auszufüllenden Formulare weitere 0,15 KiB. In einem ausgereiften Unternehmen kann dies insgesamt bis zu 4 GiB betragen.

Test Manager

  • Anzahl der von Benutzern gespeicherten Anhänge und Screenshots
  • MB an Anhängen und Screenshots

In der Regel ergeben alle Dateien und Anhänge zusammen etwa 5 GiB.

Insights

  • Enablement Footprint und Anzahl der veröffentlichten Dashboards
  • GiB pro Dashboard

Für die Aktivierung sind 2 GiB erforderlich, wobei der Speicherplatzbedarf mit der Anzahl wächst. Eine gut etablierte Bereitstellung auf Unternehmensebene erfordert weitere GiB für alle Dashboards.

Automation Hub

Keine Angabe

Keine Angabe

2 GiB fester Speicherort

Automation Ops

Keine Angabe

Keine Angabe

Kein Speicherbedarf

Apps

  • Anzahl der bereitgestellten Apps und Enablement Footprint
  • Anzahl der Apps, Größe der Apps, Größe der Datenbank, die Apps unterstützt

In der Regel benötigt die Datenbank etwa 5 GiB und eine typische komplexe App verbraucht etwa 15 MiB.

AI Center

  • Anzahl der hochgeladenen ML-Pakete
  • Anzahl der Datasets für die Analyse
  • Anzahl der veröffentlichten Pipelines
  • GiB pro Paket
  • GiB pro Dataset
  • Anzahl der Pipelines

Eine typische und etablierte Installation verbraucht 8 GiB für 5 Pakete und weitere 1 GiB für die Datasets.

Eine Pipeline kann weitere 50 GiB verbrauchen, aber nur, wenn sie aktiv ausgeführt wird.

Document Understanding

  • Größe des ML-Modells
  • Größe des OCR-Modells
  • Anzahl der gespeicherten Dokumente
  • GiB pro ML-Modell
  • GiB pro OCR-Modell
  • Anzahl der gespeicherten Dokumente

In einer ausgereiften Bereitstellung gehen 12 GiB an das ML-Modell, 17 GiB an die OCR und 50 GiB an alle gespeicherten Dokumente.

Task Mining

  • Analysierte Benutzeraktivität in Stunden, um Automatisierungsmuster vorzuschlagen
  • GiB pro Stunde

In der Regel sollten etwa 200 GiB an Aktivitätsprotokolldaten analysiert werden, um sinnvolle Automatisierungen vorzuschlagen. Für sich stark wiederholende Aufgaben werden jedoch möglicherweise viel weniger Daten benötigt.

Process Mining

  • die Anzahl der Ereignisse in Millionen
  • die Felder „Fall“ und „Ereignis“
  • the number of events in millions x the number of case and event fields x 0,02 GiB

Minimaler Platzbedarf, der nur von Benutzern genutzt wird, die Daten über das Process Mining-Portal hochladen. Etwa 10 GiB Speicherplatz sollten zu Beginn ausreichen.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
UiPath Logo weiß
Vertrauen und Sicherheit
© 2005-2024 UiPath. All rights reserved.