- Erste Schritte
- Best Practices
- Schreiben effektiver Aufforderungen
- Entwerfen von Autopilot-relevanten Automatisierungen
- Autopilot for Developers
- Autopilot for Testers
- Autopilot for Testers
- Anforderungen an die Qualitätsprüfung
- Generieren Sie Tests für die Anforderung
- Importieren Sie manuelle Testfälle
- Generieren Sie Tests für SAP-Transaktionen
- Generieren Sie codierte Automatisierungen
- Generieren Sie eine codierte API-Automatisierung
- Refactoring von codierten Automatisierungen
- Generieren Sie Low-Code-Automatisierungen
- Generieren Sie synthetische Testdaten
- Generieren Sie Test Insights-Berichte
- Suchen Sie das Test Manager-Projekt
- Autopilot for Everyone
- Autopilot-Plugins
- Datenschutz
Autopilot overview
Schreiben effektiver Aufforderungen
Aufforderungen dienen als Kommunikationsmechanismus für Autopilot™ und fungieren als Anweisungen, mit denen Sie die gewünschte Ausgabe von Autopilot erhalten.
- Stellen Sie sicher, dass Ihre Anweisungen klar und eindeutig sind.
- Erstellen Sie Anweisungen, die zu Aktionen auffordern.
- Formulieren Sie Ihre Erwartungen klar und deutlich.
- Verwenden Sie Aktiv für klare Anweisungen.
- Definieren Sie das gewünschte Format der Ausgabe.
- Verwenden Sie relevante Schlüsselwörter, um die Antwort von Autopilot in eine bestimmte Richtung zu lenken.
- Legen Sie bei Bedarf Grenzen und Einschränkungen fest.
- Testen Sie verschiedene Versionen Ihrer Anweisungen und optimieren Sie sie nach Bedarf.
- Achten Sie auf Grammatik und Interpunktion.
- Beachten Sie die Einschränkungen von Autopilot.
Hier finden Sie einige Beispiele dafür, wie Sie effektive Aufforderungen für Ausdrücke in Studio schreiben können.
- Finde das Datum für den nächsten Sonntag.
- Lade heute erhaltene E-Mails mit dem Datumsformat „tt/mm/jjjj“ herunter.
- Konvertiere vom Format „MM/tt/jjjj hh : mm : ss“ in das Format „jjjj-MM-tt hh : mm : ss“.
- Stelle eine Verzögerung von einer Sekunde ein.
- Rufe die letzten 4 Stellen ab.
- Rufe den Dateinamen aus dem vollständigen Pfad ab.
- Überprüfe, ob das Ergebnis ein Palindrom ist.
- Gib die erste Palindromzahl größer als 152 zurück.
- Korrigiere den Ausdruck, indem du die Variable deklarierst und initialisierst, bevor du die erste Methode damit aufrufst.
- Speichere die Liste der Strings in einem Array.
Hier finden Sie einige Beispiele dafür, wie Sie effektive Aufforderungen für Workflows in Studio schreiben können.
- Wenn eine neue PDF-Datei in OneDrive erstellt wird, teile ihre Seiten in separate Dateien auf.
- Kombiniere alle PDF-Dateien in einem OneDrive-Ordner in einer einzigen PDF-Datei und lade die zusammengeführte Datei in einen angegebenen Ordner hoch.
- Stelle jeden Samstag eine Verbindung zu unserem OneDrive her und sichere alle neuen Dateien, die während der Woche im Ordner „Projekte“ hinzugefügt wurden, im AWS-Cloudspeicher.
- Lade signierte Dokumente aus DocuSign in Dropbox hoch.
- Sende die Aufzeichnung auf Slack, sobald die Aufzeichnung auf Zoom bereit ist.
- Sende eine SMS-Nachricht über Twilio, wenn ein Vorfall mit hoher Priorität in ServiceNow erstellt wird.
- Wenn eine neue Zeile zur Anbietertabelle hinzugefügt wird, benachrichtige das Team über Slack und sende eine Bestätigung über Microsoft Outlook.
- Füge für jede ungelesene E-Mail in einem Microsoft Outlook-Ordner eine neue Zeile zu einer Excel-Tabelle hinzu und markiere die E-Mail dann als gelesen.
- Erstelle mit Microsoft 365 einen Flow, der die E-Mails in einem bestimmten Ordner liest. Lade dann die Anhänge herunter und berücksichtige nur PDF-Anhänge. Lies dann den Text aus der PDF-Datei.
- Extrahiere Daten aus einer neuen Rechnungsdatei in OneDrive und speichere sie in Excel.
- Benachrichtige mich in Teams, wenn ein kritischer Fehler in Jira erstellt wird.
- Ich muss die neuesten Bitcoin-Daten aus Yahoo Finance extrahieren und in eine Excel-Datei schreiben.
- Extrahiere Daten aus einer neuen Rechnungsdatei in Google Drive und speichere sie in Google Tabellen.
- Lade neue Zoom-Aufzeichnungen als Videodateien herunter und lade sie in Google Drive hoch.
- Löse eine Automatisierung über Gmail aus und speichere den Anhang in Google Drive.
- Erstelle einen neuen Eintrag in Google Tabellen für ein neues Kundensupport-Ticket von Zendesk.
- Extrahiere die letzten 100 E-Mails aus dem aktuellen Monat aus Gmail und erstelle einen Google Tabellen-Bericht mit dem Absender und Betreff.
- Erstelle für neue Rechnungen, die in Gmail erhalten wurden, einen Ausgabenbericht mit Expensify.
- Fasse eine neue Gmail-E-Mail mit OpenAI zusammen und teile die Zusammenfassung über Slack.
- Generiere für einen neuen Salesforce-Lead eine personalisierte E-Mail mit OpenAI und sende die E-Mail über Outlook.
- Veröffentliche eine Kudos-Nachricht in Slack, wenn eine Salesforce-Opportunity gewonnen wurde.
- Sende eine Nachricht an mich in Teams, wenn ein neuer Lead in Salesforce erstellt wird.
- Wenn sich der Status eines Leads in Salesforce ändert, sende eine Benachrichtigung auf Slack an das Vertriebsteam mit den Details des Leads.
- Sicherheitsaspekte wie Zugriff, Schutz, Authentifizierung, Sicherheitslücken und Compliance.
- Leistungsaspekte wie Reaktionszeiten, Durchsatz, Skalierbarkeit, Ressourcennutzung und Lasthandhabung.
Sie können vorgefertigte Eingabeaufforderungen aus der Eingabeaufforderungsbibliothek im Test Manager verwenden, um Ihre Anforderungen zu analysieren. Sie können der Eingabeaufforderungsbibliothek auch eigene benutzerdefinierte Eingabeaufforderungen für zukünftige Anforderungsauswertungen hinzufügen.
Unter Anforderungen zur Qualitätsprüfung – Best Practices finden Sie die verfügbaren Best Practices und Richtlinien für die Anforderungsbewertung.
- Kurze, benutzerspezifische Anweisung, die den Zweck der Anforderung hervorhebt.
- Umfassende Beschreibung der Anwendungslogik und Benutzererfahrung.
- Klare, messbare Akzeptanzkriterien, die sowohl positive als auch negative Szenarien einschließen.
Sie können unterstützende Dokumente wie Prozessdiagramme und -modelle, Compliance-Dokumente und Diskussionsprotokolle bereitstellen, um AutopilotTM zusätzlichen Kontext zu geben und genauere und relevantere Testfälle zu generieren.
Sie können vorgefertigte Eingabeaufforderungen aus der Eingabeaufforderungsbibliothek im Test Manager verwenden, um manuelle Tests zu generieren. Sie können der Eingabeaufforderungsbibliothek auch eigene benutzerdefinierte Eingabeaufforderungen für zukünftige Testgenerierungen hinzufügen.
Unter Tests für Anforderung generieren – Best Practices erfahren Sie die verfügbaren Richtlinien und Best Practices für das Generieren von Testfällen mit AutopilotTM.
Um Text in Code umzuwandeln, können Sie Autopilot Anweisungen zum Generieren von C#-Code, zum Refactoring von vorhandenem Code oder zum Generieren einer UiPath-Automatisierung geben.
Weitere Informationen finden Sie unter Text in Code konvertieren – Best Practices.
Um manuelle Testfälle in Automatisierungen umzuwandeln, benötigen Sie ein konsistentes Objekt-Repository, da Autopilot UI-Automatisierungsfunktionen verwendet, um auf UI-Elemente zu verweisen. Es ist wichtig, eine konsistente Namenskonvention für UI-Elemente innerhalb manueller Schritte beizubehalten, um sicherzustellen, dass die generierte Automatisierung relevant ist. Sie sollten auch allgemeine Aktivitätsnamen in manuellen Schritten verwenden, damit sie einfach in entsprechende UiPath-APIs in Studio Desktop konvertiert werden können.
Weitere Informationen finden Sie unter Automatisieren von manuellen Tests – Best Practices.
Wenn Sie synthetische Testdaten generieren, berücksichtigt Autopilot die vorhandenen Argumente in Ihrem Workflow und die zusätzlichen Anweisungen, die in der Aufforderung zum Generieren der Testdaten bereitgestellt werden. Sie können auch Anweisungen bereitstellen, um einer bestimmten Kombination von Daten zu folgen oder Ihr Dataset anzupassen.
Weitere Informationen finden Sie unter Generieren von synthetischen Testdaten – Best Practices.
AutopilotTM bietet im Test Manager Erkenntnisse für fehlgeschlagene Testfälle und Empfehlungen zur Reduzierung der Fehlerquote in Ihrem Testportfolio. Je mehr Testergebnisse Sie beim Generieren des Berichts bereitstellen, insbesondere bei fehlgeschlagenen Testfällen, desto effektiver ist er. Das Ziel der Testerkenntnisse besteht darin, die Hauptgründe dafür zu verstehen, warum Ihre Tests fehlschlagen.
- Häufige Fehler: Gruppiert ähnliche Fehlermeldungen semantisch, um die häufigsten Probleme hervorzuheben.
- Fehlermuster: Unterteilt fehlgeschlagene Testfälle in größere Kategorien. Diese spezifischen Kategorien identifizieren wiederkehrende Themen und systemische Probleme und ermöglichen ein klareres Verständnis der zugrundeliegenden Probleme in Ihrer Testausführung.
- Empfehlungen: Liefert umsetzbare Empfehlungen für Verbesserungen, die Sie bei Ihren nächsten Schritten zur Optimierung der Stabilität Ihrer Testausführung unterstützen.
- Für Ausdrücke
- Datum und Uhrzeit
- Text und Zahl
- Datenvorgänge
- Dateivorgänge
- Excel-Vorgänge
- Für Workflows
- Speicherdienste
- Kommunikationsdienste
- Microsoft 365
- Google Workspace
- Salesforce
- OpenAI
- Für die Anforderungsauswertung
- Für die manuelle Testgenerierung
- Für Code
- Für manuelle Tests
- Für Testdaten
- Für die Testergebnisanalyse