Automatisierte Test-Generierung
Unit Tests, Integration Tests, E2E Tests – Code rein zu OpenClaw, Test Cases kommen raus
Tests schreiben – wem tut das nicht weh?
Features müssen online gehen, Tests sind immer "nächste Version". Dann geht's live und Bumm – Bugs in Edge-Cases, die keiner gecovered hat.
Mocks schreiben bis zum Wahnsinn – eine API hängt von drei Services ab, nur für Mock-Daten brauchst du ne halbe Stunde. Mehr Code als Business-Logic.
Coverage-Report zeigt 30%, Chef fragt nach – du bluffst "Core Logic ist alle Tests" was aber nicht stimmt, kein Happy Path-Coverage.
OpenClaw und deine Test-Probleme
OpenClaw wirft nicht einfach ein paar Test Cases in die Gegend. Es analysiert Function Signature, Branch-Logik, Exception Handling Paths, erkennt automatisch Edge Cases und Exception Scenarios.
Deine Funktion hat Null-Checks? Generiert Tests für Null. Loop? Tests für leeres Array, Single Item, viele Daten. Try-Catch? Baut Input, das die Exception triggert.
Und es versteht dein Test-Framework – Jest, Pytest, JUnit, Vitest – der generierte Code läuft direkt, keine Format-Anpassungen nötig.
Ready-to-use Test Prompts
3 Prompts: Unit Tests, E2E Tests, Load Tests. Such dir was aus.
Analysiere alle exported Functions und Class Methods dieses Moduls.
Generiere komplette Unit Tests für jede Function, Anforderungen:
1. Coverage-Goal 90%+ (Statement + Branch Coverage)
2. Jede Function muss getestet werden: Normal Input, Edge Values, Exception Input
3. External Dependencies mocken, keine echten DBs oder Network
4. Test Names klipp und klar, "should xxx when xxx" Format
5. Setup/Teardown wo nötig
Nutz das Test-Framework und Assertion-Library des Projekts, keep den Style konsistent.
Schreib E2E Tests mit Playwright für diesen Login Flow:
Test-Szenarien:
1. Normal Login: Richtige Credentials, check Home-Redirect
2. Wrong Password: Falsche Credentials, check Error Message
3. Empty Form: Kein Input, check Form Validation
4. Remember Me: Check Checkbox, reopen, check Login State
5. Logout: Nach Login Logout clicken, check zurück zu Login
Anforderungen:
- Page Object Model Pattern
- Vernünftige Wait-Strategien, kein Sleep
- Screenshots bei Fehler für Debugging
Generiere Load-Test Script (k6 oder Artillery) für diese API:
Test-Config:
1. Ramp up: Start 10 Concurrent, +10 alle 30 Sek, Max 200 Concurrent
2. Duration: Insgesamt 5 Minuten
3. Request Mix: 70% Read, 20% Write, 10% Update
4. Metrics: P50/P95/P99 Latency, Error Rate, Throughput
Generiere auch Analysis Script, output Performance Bottleneck Report.
Wenn P99 > 500ms oder Error Rate > 1%, mark as Optimization-Needed.
Test-Generierung: OpenClaw vs Copilot
Beide können Tests generieren, aber Quality ist verschieden.
- Analysiert komplette Function-Logik und Branch Paths, Edge Cases vollständig covered
- Versteht Cross-File Dependencies, Mocks sind genau
- Kann Coverage-Targets vorgeben, macht Nachschlag wenn nötig
- Generiert komplexe Szenarien komplett – E2E, Load Tests etc.
- Generiert nur aus aktuellem File, cross-file Dependencies easy übersehen
- Macht hauptsächlich Happy Path Tests, Edge Coverage zu kurz
- Mocks müssen oft manuell gefixt werden
- Complex Test Szenarien (E2E, Load Tests) nur bedingt