- Erste Schritte
- Hier lesen
- Über OData und Referenzen
- Orchestrator-URL
- API-Referenzen
- Rate limits and large data fields usage optimization
- Logische Ressourcen und Metadaten
- Verfügbare Operationen
- Aufgezählte Typen
- Nutzung der Cloud-API
- Erstellen von API-Anfragen
- Externe Anwendungen (OAuth)
- Berechtigungen pro Endpunkt
- Antwortcodes
- Die Swagger-Definition
- Beispiele mit der Orchestrator-API
- Warnungsanforderungen
- Anfragen zu Assets
- Kalenderanforderungen
- Umgebungsabfragen
- Ordneranforderungen
- Generische Aufgabenanforderungen
- Jobanfragen
- Bibliotheksabfragen
- Lizenzabfragen
- Paketanfragen
- Berechtigungsabfragen
- Anfragen für persönliche Arbeitsbereiche
- Prozessabfragen
- Bearbeitung von Anforderungen an die Datenaufbewahrung
- Anforderungen von Warteschlangenelementen
- Anforderungen an Warteschlangenaufbewahrungsrichtlinien
- Roboteranfragen
- Rollenanfragen
- Zeitplanabfragen
- Anfragen zu Einstellungen
- Anforderungen für Speicher-Buckets
- Aufgabenanforderungen
- Aufgabenkataloganforderungen
- Aufgabenformularanforderungen
- Mandantenabfragen
- Transaktionsanfragen
- Benutzerabfragen
- Webhook-Abfragen
Rate limits and large data fields usage optimization
- Sie gewährleisten ein vorhersagbares System: Wenn Sie das API-Aufruflimit kennen, können Sie Ihre Anwendungen besser entwerfen und warten. Es bietet eine vorhersehbare Umgebung und minimiert Überraschungen aufgrund unerwarteter Grenzwertüberschreitungen.
- Sie verbessern die Leistung: Durch die Kontrolle des Datenverkehrs auf unseren Servern sorgen wir für optimale Leistung und schnellere Antworten, wodurch Ihr Produkterlebnis erheblich verbessert wird.
- Sie verbessern die Sicherheit: Die unten beschriebenen Grenzwerte dienen als zusätzliche Sicherheitsebene und schützen Ihr System vor potenziellen Cyber-Bedrohungen.
- Sie stellen eine gerechte Nutzung sicher: Unsere Ratenlimits gewährleisten eine gerechte Ressourcenverteilung an alle Nutzer und einen reibungslosen Betrieb auch während der Spitzenzeiten.
The limits and large data fields optimizations outlined below require some adjustments on your end, but we are confident that they will bring long-term benefits.
Diese Grenzwerte werden durchgesetzt:
Endpoint |
Beispiele |
Limits |
Gültig seit |
---|---|---|---|
|
|
100 API-Anforderungen/Minute/Mandant |
Juli 2024 |
|
| 100 API-Anforderungen/Minute/Mandant | Juli 2024 |
GET/odata/Jobs(<job_id>)
is not rate limited.
Bitte beachten Sie, dass diese Einschränkungen nicht für das Hinzufügen von Warteschlangenelementen und das Verarbeiten von Aufträgen gelten. Daher gibt es keine Auswirkungen auf das Hinzufügen eines Warteschlangenelements, das Entfernen eines Elements aus einer Warteschlange, das Festlegen seines Status oder das Starten und Verarbeiten einer beliebigen Anzahl von Aufträgen.
Sie können Ihre API-Nutzung pro Monat oder Tag auf der Registerkarte API-Prüfung auf Mandantenebene im Fenster Überwachung überprüfen.
Kopfzeile |
Beschreibung |
Beispiel |
---|---|---|
|
Allen Anforderungen, die über die vorgenannten Grenzen hinausgehen, wird die HTTP-Antwort 429 zurückgegeben, die diesen Header enthält. Zeigt die Anzahl der Sekunden an, die Sie warten müssen, bis der Endpunkt wieder für Sie verfügbar ist. |
Retry-After: 10 bedeutet, dass das Ratenlimit am Endpunkt in 10 Sekunden abläuft. Alle Wiederholungen innerhalb dieser 10 Sekunden führen zur Antwort 429.
|
|
Die Anzahl der verbleibenden Aufrufe |
X-RateLimit-Remaining: 30 bedeutet, dass Sie im aktuellen Zeitbereich 30 verbleibende Aufrufe haben
|
Wenn die Anzahl der Anforderungen pro Minute unter 10 ist, wird sie als 0 gerendert.
Die folgenden Aktivitäten sind von diesen Einschränkungen betroffen:
- Get Job
- Warteschlangenobjekte erhalten (Get Queue Items)
- Orchestrator Http Request (bei Verwendung zum Aufrufen der
GET /odata/Jobs
- oderGET /odata/QueueItems
-Endpunkte)
Retry-after
response header, meaning that they perform automatic retries of Orchestrator operations. Please make sure to always use the latest version of System activities to benefit from this.
Dies empfehlen wir Ihnen, um sicherzustellen, dass Sie unsere Grenzwerte einhalten und in vollem Umfang nutzen können:
- Überprüfen Sie Ihre API-Nutzungsmuster und die Informationen, die Sie von unseren zuvor erwähnten Endpunkten vom Typ
GetAll
abrufen. - Passen Sie Ihre API-Aufrufhäufigkeit und Datenextraktionsverfahren ggf. an diese Grenzwerte an.
- In den Abschnitten Exportieren von Aufträgen und Exportieren von Warteschlangenelementen finden Sie Beispiele zum Abrufen von Aufträgen und Warteschlangenelementdaten.
- Verwenden Sie die Option Insights-Datenexport in Echtzeit.
- Make sure you always use the latest version of System activities.
- Wenden Sie sich an Ihren Kontomanager oder unser Support-Team, wenn Sie Fragen haben oder weitere Erläuterungen benötigen.
Die API-Endpunkte, die zum Abrufen von Auftragslisten und Warteschlangenelementen verwendet werden, können sich als problematisch erweisen, wenn sie für die Echtzeitüberwachung und den Datenexport verwendet werden. Zum Beispiel:
-
Wenn bis zu 1.000 Elemente angefordert werden und jedes Element bis zu 1 MB an großen Daten umfasst, kann die Antwort auf einen einzigen API-Aufruf 1 GB groß sein. Da es zwischengeschaltete Stellen gibt, die keine Antworten dieser Größe zulassen, schlagen die Anforderungen fehl.
-
Wenn Sie komplexe Filter verwenden und dann eine Warteschlange mit mehreren Millionen Warteschlangenelementen paginieren, kann nach einigen Dutzend Seiten eine Zeitüberschreitung bei den Anforderungen auftreten. Das ist auf die Datenmenge zurückzuführen, die aus der Datenbank abgerufen werden muss.
Jobs - GetAll
endpoint responses. These are the impacted fields:
Endpoint |
Ausgelassene Felder |
Was Sie stattdessen verwenden können |
Gültig seit |
---|---|---|---|
|
|
Verwenden Sie für Exporte den speziellen Endpunkt:
GET/odata/Jobs/UiPath.Server.Configuration.Data.Export Weitere Informationen finden Sie unter Exportieren von Aufträgen. |
Community- und Canary-Mandanten: März 2024 Enterprise-Mandanten: Juli 2024 |
GET /odata/Jobs
endpoint, either via API or via the Get Jobs, Get Queue Items, or Orchestrator HTTP Request activities, you need to find out whether you use any of the listed fields. If you do, please be aware that the content of these fields will be returned as null.
Wir empfehlen Ihnen, Prozesse in Ihren Canary-Mandanten zu testen, um die Auswirkungen zu bewerten.
GET/odata/QueueItems
endpoint is optimized by applying these size limitations to its fields:
Feld |
Grenzwert | Gültig seit |
How to tell that you are impacted |
How to address this |
---|---|---|---|---|
Progress |
1,048,576 characters |
> Community and Canary tenants: April 2024 > Enterprise tenants: May 2024 |
A specific error message is returned. |
We recommend that you use storage buckets and/or Data Service blob storage if you need to store more data. |
104,857 characters |
All tenants: September 2024 | |||
AnalyticsData |
10 KB |
> Community and Canary tenants: June 2024 > Enterprise tenants: September 2024 |
Enterprise: If your current data load exceeds these limits, we will send monthly reports to administrators. | |
Output |
100 KB | |||
SpecificData |
500 KB | |||
ProcessingException - Reason |
102,400 characters | |||
ProcessingException - Details |
102,400 characters |
The following filter is also limited for performance purposes:
Filter |
Grenzwert |
Gültig seit |
How to tell that you are impacted |
How to address this |
---|---|---|---|---|
|
> If you do not use the
$top filter, you receive 100 records by default.
> If you use the
$top filter, you receive a maximum of 100 records. Anything exceeding 100 triggers a 400 Bad Request error message.
|
> Community and Canary tenant: June 2024 > Enterprise tenants: September 2024 |
Enterprise: We aim to send an email notification to administrators if we detect the usage of this filter in API calls. However, we ask that you keep a close eye on your end as well. |
We recommend that you modify your process or API usage logic accordingly if you expect to exceed this limit. |
Jobs
and QueueItems
fields:
- In den Abschnitten Exportieren von Aufträgen und Exportieren von Warteschlangenelementen finden Sie Beispiele zum Abrufen von Aufträgen und Warteschlangenelementdaten.
- Verwenden Sie die Option Insights-Datenexport in Echtzeit.
- Wenden Sie sich an Ihren Account Manager oder unser Supportteam, wenn die genannten Methoden nicht für Sie funktionieren.
Änderungen an Ratenlimits und großen Datenfeldern werden in lokalen Umgebungen nicht implementiert.
Wenn Sie einen eigenständigen Orchestrator verwenden und erwägen, in die Cloud zu migrieren, können Sie die IIS-Anforderungsprotokolle verwenden, um die Anforderungsrate für die betroffenen Endpunkte zu bestimmen. Die Analyse hängt davon ab, wie Sie die Protokolle aggregieren, wofür Sie z. B. Microsoft Log Parser verwenden können.
Um die Auswirkungen auf große Datenfelder zu bewerten, empfehlen wir, Ihre Prozesse in Canary-Mandanten zu testen.