automation-suite
2022.4
false
- Überblick
- Anforderungen
- Installation
- Fragen und Antworten: Bereitstellungsvorlagen
- Herunterladen der Installationspakete
- install-uipath.sh-Parameter
- Aktivieren eines High Availability Add-ons für den Cluster
- Document Understanding-Konfigurationsdatei
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Verwalten des Clusters in ArgoCD
- Einrichten des externen NFS-Servers
- Automatisiert: Aktivieren der Sicherung im Cluster
- Automatisiert: Deaktivieren der Clustersicherung
- Automatisiert, online: Wiederherstellen des Clusters
- Automatisiert, offline: Wiederherstellen des Clusters
- Manuell: Aktivieren der Clustersicherung
- Manuell: Deaktivieren der Clustersicherung
- Manuell, online: Wiederherstellen des Clusters
- Manuell, offline: Wiederherstellen des Clusters
- Zusätzliche Konfiguration
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Überwachung und Warnungen
- Migration und Upgrade
- Migrationsoptionen
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren von eigenständigen Insights
- Schritt 7: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Produktspezifische Konfiguration
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Automatisches Bereinigen von Longhorn-Snapshots
- Deaktivieren von TX-Prüfsummen-Offloading
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Für die Automation Suite muss Backlog_wait_time festgelegt werden 1
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- RKE2 schlägt während der Installation und Aktualisierung fehl
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Patch zur Rückgewinnung von Speicherplatz
- Sicherung aufgrund des Fehlers „TooManySnapshots“ fehlgeschlagen
- Alle Longhorn-Replikate sind fehlerhaft
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Anmeldung nach der Migration nicht mehr möglich
- Kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- Der GSSAPI-Vorgang ist mit Fehler fehlgeschlagen: Es wurde ein ungültiger Statuscode übermittelt (Die Anmeldeinformationen des Clients wurden widerrufen).
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag empfangen
- SSPI-Anbieter: Server nicht in Kerberos-Datenbank gefunden
- Die Anmeldung ist für den Benutzer <ADDOMAIN><aduser> fehlgeschlagen. Grund: Das Konto ist deaktiviert.
- ArgoCD-Anmeldung fehlgeschlagen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- Nach der ersten Installation wechselte ArgoCD in den Status „Progressing“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- UNERWARTETE INKONSISTENZ; fsck MANUELL AUSFÜHREN
- Herabgestufte MongoDB- oder Geschäftsanwendungen nach der Clusterwiederherstellung
- Self-heal-operator und Sf-k8-utils-Repository fehlen
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- RabbitMQ-Pod bleibt in CrashLoopBackOff hängen
- Prometheus im Zustand „CrashloopBackoff“ mit OOM-Fehler (Out-of-Memory)
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Verwenden des Automation Suite-Diagnosetools
- Verwenden des Automation Suite Support Bundle-Tools
- Erkunden von Protokollen
Document Understanding-Konfigurationsdatei
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde.
Automation Suite-Installationsanleitung
Last updated 4. Nov. 2024
Document Understanding-Konfigurationsdatei
documentunderstanding
ist eine Eigenschaft in der Konfigurationsdatei cluster_config.json
der Automation Suite. Sie enthält konfigurierbare Werte, die das Verhalten des Document Understanding-Diensts steuern. Das Installationsprogramm generiert die Standardwerte. Zusätzliche Änderungen können vorgenommen werden, um den Document Understanding-Dienst weiter zu konfigurieren. Wenn Sie Einstellungen im Zusammenhang mit Document Understanding ändern müssen, können Sie den Abschnitt documentunderstanding
in cluster_config.json
bearbeiten und das Installationsprogramm erneut ausführen.
Alternativ können dieselben Änderungen in der UiPath-App in ArgoCD vorgenommen werden.
"documentunderstanding": {
"enabled": Boolean,
"datamanager": {
"sql_connection_str" : "String"
}
"handwriting": {
"enabled": Boolean,
"max_cpu_per_pod": "Number"
}
}
"documentunderstanding": {
"enabled": Boolean,
"datamanager": {
"sql_connection_str" : "String"
}
"handwriting": {
"enabled": Boolean,
"max_cpu_per_pod": "Number"
}
}
Hinweis:
Die SQL-Verbindungszeichenfolge vom Data Manager ist nur optional, wenn Sie die Standard-Datenbank mit Ihrer eigenen überschreiben möchten.
Die Handschrift ist für die Online-Installation immer aktiviert.
"documentunderstanding": {
"enabled": true,
"datamanager": {
"sql_connection_str": "mssql+pyodbc://testadmin:myPassword@mydev-sql.database.windows.net:1433/datamanager?driver=ODBC+Driver+17+for+SQL+Server",
},
"handwriting": {
"enabled": true,
"max_cpu_per_pod": "2"
}
}
"documentunderstanding": {
"enabled": true,
"datamanager": {
"sql_connection_str": "mssql+pyodbc://testadmin:myPassword@mydev-sql.database.windows.net:1433/datamanager?driver=ODBC+Driver+17+for+SQL+Server",
},
"handwriting": {
"enabled": true,
"max_cpu_per_pod": "2"
}
}
Hinweis: Der Wert für
max_cpu_per_pod
ist standardmäßig 2
, kann jedoch an Ihre Anforderungen angepasst werden. Weitere Informationen dazu finden Sie im Abschnitt (optional) Max. CPU pro Pod-Parameter.
- Verbindungszeichenfolge für datamanager
- Erforderlich: False.
- Diese Eigenschaft wird vom Installationsprogramm generiert und aufgefüllt. Sie müssen sie nur dann festlegen, wenn Sie die Standardverbindungszeichenfolge überschreiben möchten. Weitere Informationen zum Herstellen einer Verbindung mit SQL finden Sie auf der Seite Verwenden der Konfigurationsdatei.
- Einstellungen für die Handschrifterkennungsfunktion (Teil von IntelligentFormExtractor)
- Erforderlich: False.
- Wenn Sie dies auf „true“ festlegen, werden die Ressourcen erstellt, die für die Durchführung der Handschrifterkennung erforderlich sind. Es muss für die Verwendung von IntelligentFormExtractor „true“ sein.
- Erforderlich: False
- Diese Eigenschaft ist immer für die Onlineinstallation aktiviert und für die Offline-Installation (Air-Gap) deaktiviert. Für die Air-Gap-Installation müssen Sie das Document Understanding-Offlinepaket installieren, bevor Sie die Handschrift aktivieren.
- Die maximale Anzahl von CPUs, die jeder Container verwenden darf. Der empfohlene Wert ist 2.
- Erforderlich: False.
- Standard: 2.
Wenn Sie den Intelligent Form Extractor mit Handschrifterkennungsfunktion verwenden möchten, müssen Sie möglicherweise den Parameter
handwriting.max_cpu_per_pod
für mehr Rechenleistung anpassen.
Die folgenden Faktoren sind erforderlich, um die richtige Größe zu berechnen:
- Gesamtvolumen der Dokumente/Jahr = V
- erwartete Anzahl von Handschriften/Dokument = S
- Tage, an denen der Workflow Dokumente verarbeitet (Arbeitstage, alle Tage, Wochenenden usw.) = d
- Stunden, in denen der Workflow Dokumente verarbeitet = h
- Anzahl der CPUs = (V x S / (d x h)) / 1500
Wenn Sie beispielsweise bei 1 Million Dokumente pro Jahr mit durchschnittlich 50 Handschriften mit dem Intelligent Form Extractor eine Handschrifterkennung durchführen und dies an Wochentagen von 00:00 bis 08:00 Uhr (8 Stunden) geschieht, wäre die Berechnung:
Number of CPUs = (1,000,000 x 50 / (250 x 8)) / 1500
= 25,000 / 1500
= 17 CPUs
Number of CPUs = (1,000,000 x 50 / (250 x 8)) / 1500
= 25,000 / 1500
= 17 CPUs
Für den Auswertungsmodus mit einem einzelnen Knoten müssen Sie den Parameter
max_cpu_per_pod
auf 17 einstellen.
Beim HA-bereiten Produktionsmodus mit mehreren Knoten (3 Knoten) setzen Sie den Parameter
max_cpu_per_pod
auf 5–6.