Generación automática de tests

Unit tests, integration tests, E2E tests — tira el código a OpenClaw, los test cases se generan solos

¿Escribir tests? Eso es lo que más duele

Los tests siempre se dejan para el final

La función tiene prisa por salir a producción, los tests "se hacen en la siguiente versión". Resultado: se rompe en producción porque los casos límite no los cobriste.

Escribir mocks hasta cuestionarte tu vida. Una interfaz depende de tres servicios, solo hacer los mocks toma media hora... más que el código de negocio.

El reporte de cobertura dice 30%, cuando el jefe pregunta solo puedes decir "pero cubrimos la lógica crítica". En realidad ni el happy path está cubierto completamente.

Cómo OpenClaw resuelve los tests

Lee tu código y genera tests confiables

OpenClaw no genera un par de test cases para dejarte tranquilo. Analiza la firma de la función, la lógica de ramas, las rutas de manejo de excepciones, e identifica automáticamente casos límite y escenarios excepcionales.

¿Tu función tiene validación de null? Genera un test con entrada null. ¿Tiene un bucle? Testea array vacío, un elemento, montones de datos. ¿Tiene try-catch? Construye entradas que lancen excepciones.

Y entiende el framework de testing que usas — Jest, Pytest, JUnit, Vitest — genera código que funciona directamente, no necesitas cambiar el formato.

Prompts de testing listos para usar

Tres prompts cubren unit tests, E2E tests, stress tests. Elige según lo que necesites.

Cobertura completa de unit tests La instrucción de oro
Analiza todas las funciones y métodos de clase exportados por este módulo.

Genera tests unitarios completos para cada función, con requisitos:
1. Objetivo de cobertura 90%+ (cobertura de sentencias + ramas)
2. Para cada función, prueba: entrada normal, valores límite, entrada excepcional
3. Para dependencias externas usa mocks, no dependas de bases de datos o red real
4. Nombres claros para los tests, formato "should xxx when xxx"
5. Agrega setup/teardown necesarios

Usa el framework de testing y librería de assertions del proyecto, mantén el estilo consistente.
Este es el más usado. Tira un archivo, en segundos tienes los tests. Ese 90% de cobertura no es exageración, incluye casos límite que ni pensaste.
Tests E2E de flujo de login (Playwright) Técnicas avanzadas
Escribe tests E2E con Playwright para el siguiente flujo de login:

Escenarios de test:
1. Login normal: ingresa usuario y contraseña correctos, verifica que redirige a home
2. Contraseña incorrecta: contraseña equivocada, verifica el mensaje de error
3. Form vacío: submit sin ingresar nada, verifica validación del form
4. Recordar contraseña: marca "recordarme", cierra y reabre para verificar estado
5. Logout: logout después de login, verifica que vuelve a login

Requisitos:
- Usa Page Object Model pattern
- Estrategias de espera razonables, nada de sleep
- Screenshot de fallos para debugging
Los tests E2E con Playwright son bien tedioso de escribir, especialmente estrategias de espera y selectores. Déjale a la IA que haga la versión inicial, luego ajusta según tu página real, la eficiencia se duplica.
Script de stress testing para API Técnicas avanzadas
Genera un script de stress testing para estas interfaces de API (usa k6 o Artillery):

Configuración:
1. Ramp up progresivo: comienza con 10 concurrentes, suma 10 cada 30 segundos, máximo 200
2. Duración total: 5 minutos
3. Distribución de requests: 70% lecturas, 20% escrituras, 10% updates
4. Métricas: latencia P50/P95/P99, tasa de error, throughput

Genera script de análisis de resultados, output un reporte de cuello de botella.
Si P99 > 500ms o error rate > 1%, marca como necesita optimización.
Escribir un script de stress testing desde cero toma media día. Este prompt te da configuración de producción, incluso el script de análisis.

Generación de tests: OpenClaw vs Copilot

Ambos generan tests, pero la calidad varía bastante.

OpenClaw
  • Analiza la lógica completa y rutas de rama, casos límite cubiertos al 100%
  • Entiende dependencias entre archivos, mocks generados con precisión
  • Puedes especificar objetivos de cobertura, si no alcanza completa con más casos
  • Genera scripts completos para E2E, stress tests y escenarios complejos
VS
Copilot
  • Genera basado en el archivo actual, fácil de omitir dependencias entre archivos
  • Principalmente happy path, falta cobertura de casos límite
  • Los mocks frecuentemente necesitan correcciones manuales
  • Soporte limitado para escenarios complejos (E2E, stress tests)

Caso real: rellenar tests antes de un deploy urgente

Viernes a las 4 PM, el jefe dice que debe salir esta noche
La función nueva estuvo en desarrollo dos semanas, cobertura de tests 20%. QA dice que necesita 70% mínimo. Tienes tres horas.
OpenClaw
Tira los módulos críticos a OpenClaw, un prompt genera la suite completa de tests. Analiza automáticamente qué ramas faltan, agrega tests de límite y manejo de excepciones. En tres horas llegas a 80% de cobertura, QA da el visto bueno feliz.
Escribir tests manualmente
Empiezas a escribir tests como loco, pero solo entender las dependencias toma una hora. Escribes los mocks mal tres veces, los tests no corren. Al final cobertura 45%, QA dice no, y terminas trabajando hasta la madrugada.

Algunos tips prácticos

💡 Después de generar tests, córrelos una vez para verificar que pasen. Si hay fallos, copia los mensajes de error a OpenClaw, te ayuda a arreglarlo.
🎯 En lugar de generar todos los tests de una, hazlo por módulo en lotes. Cada vez enfócate en un archivo, los tests salen mejor así.
Para generación de tests, Claude Opus 4.6 es lo mejor, especialmente con lógica de negocio compleja. Tests de funciones simples con DeepSeek V3.2 está bien, ahorras dinero.
¿Te sirvió este caso?