Génération tests automatisée
Unit tests, intégration, E2E — balance le code à OpenClaw, les tests arrivent tous seuls
Les tests c'est toujours un cauchemar
Faut sortir les features, les tests c'est "dans la prochaine version". Résultat: ça crash en prod et tu découvres que les cas limites étaient complètement découverts.
T'es là à écrire des mocks, un endpoint dépend de 3 services, juste les mock data c'est 30 mins, plus que le code métier. Le delirium.
Le coverage report dit 30%, tu dis au boss "on teste les trucs critiques" en fronçant les sourcils. Spoiler: c'est même pas vrai, happy path pas complet.
OpenClaw pour dominer les tests
OpenClaw c'est pas "balance quelques test cases pour faire semblant". Il analyse la signature, la logique des branches, la gestion des exceptions, détecte auto les cas limites et les exceptions.
Ton code a une vérif null? Il génère un test avec null. Une boucle? Il teste tableau vide, 1 élément, données massives. Try-catch? Il crée des inputs qui triggent l'exception.
Et il comprend le framework de test du projet — Jest, Pytest, JUnit, Vitest — le code généré marche direct, pas besoin de reformat manuellement.
Des prompts de tests à utiliser directement
3 prompts pour unit tests, E2E, load tests. Choisis selon tes besoins.
Analyse tous les exports et méthodes du module.
Génère des unit tests complets pour chaque fonction, critères:
1. Coverage goal 90%+ (statements + branches)
2. Pour chaque fonction: input normal, edge values, bad input
3. Mock les dépendances externes, pas de vraie DB ou réseau
4. Noms clairs des tests, format "should xxx when xxx"
5. Setup/teardown si besoin
Utilise le framework et les assertions du projet, keep le même style.
Écris des tests E2E avec Playwright pour ce flux login:
Scénarios à tester:
1. Login OK: bon user/pass, vérifie redirection homepage
2. Mauvais password: bad pass, vérifie message d'erreur
3. Form vide: soumis sans rien, vérifie validation form
4. Remember me: coche la box, ferme, réouvre, vérifie l'état
5. Logout: après login, click exit, vérifie retour login page
Requis:
- Page Object Model pour l'organisation du code
- Vraies strategies d'attente, pas de sleep partout
- Screenshots des scénarios échoués pour debug
Génère un load test (k6 ou Artillery) pour ces endpoints API:
Config du test:
1. Ramp-up: 10 concurrent, +10 toutes les 30s, max 200
2. Durée: 5 min au total
3. Distribution: 70% read, 20% write, 10% update
4. Metrics: P50/P95/P99 latency, error rate, throughput
Génère aussi le script d'analyse des résultats, output un rapport de perf.
Si P99 > 500ms ou error rate > 1%, flag comme "optimize".
Génération de tests: OpenClaw vs Copilot
Les deux génèrent des tests, mais la qualité change pas mal.
- Analyse la logique complète et les branches, edge cases couverts
- Comprend les dépendances cross-file, mocks précis
- Peut fixer des coverage goals, complète si pas atteint
- Génère des tests complexes: E2E, load tests, scripts complets
- Se base sur le fichier courant, oublie facile les dépendances
- Génère surtout happy path, edge cases incomplets
- Mocks souvent faux, faut corriger à la main
- Tests complexes (E2E, load) peu supportés