Capítulo 7. Medir la coberturacon Cobertura.py
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
¿Hasta qué punto confías en un cambio de código cuando tus pruebas pasan?
Si consideras las pruebas como una forma de detectar fallos, puedes describir su sensibilidad y especificidad.
La sensibilidad de tu conjunto de pruebas es la probabilidad de que falle una prueba cuando hay un defecto en el código. Si hay grandes partes del código sin probar, o si las pruebas no comprueban el comportamiento esperado, tienes una sensibilidad baja.
La especificidad de tus pruebas es la probabilidad de que pasen si el código está libre de defectos. Si tus pruebas son defectuosas (fallan intermitentemente) ofrágiles (fallan cuando cambias detalles de implementación), entonces tienes una especificidad baja. Invariablemente, la gente deja de prestar atención a las pruebas que fallan. Pero este capítulo no trata de la especificidad.
Hay una forma estupenda de aumentar la sensibilidad de tus pruebas: cuando añadas o cambies un comportamiento, escribe una prueba que falle antes del código que lo hace pasar. Si haces esto, tu conjunto de pruebas captará tus expectativas sobre el código.
Otra estrategia eficaz es probar tu programa con las distintas entradas y restricciones del entorno que esperas que encuentre en el mundo real. Cubre los casos de perímetro de una función, como listas vacías o números negativos. Prueba escenarios de error ...
Get Herramientas Python hipermodernas now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.