是否有一种标准的方法来存储测试覆盖率结果以便及时比较它们?
Is there a standard way to store test coverage results to compare them in time?
我有一个 Django 项目,我可以在其中 运行 覆盖并创建报告
coverage run --source='.' manage.py test my_app
我想比较代码重构后随时间变化的结果。有没有办法在不创建我自己的数据模型的情况下实现这一点?
提前致谢,
我知道或可以找到的 None。而且我什至没有看到随着时间的推移对详细指标的足够使用以保证为他们提供数据库。
您通常对以下方面感兴趣:
- general percents (total and by modules/packages) -- 了解测试套件质量的总体情况
- 这些可以很容易地从一般测试报告本身中提取出来——尤其是当它们作为电子邮件或可以自动保存它们的东西发送时。
- 在很长一段时间内,这种动态变化仅作为下一个消失值的边际用途来决定下一步的优先级(绝对百分比和模块本身的重要性是主要因素)。通常只需隔几天看几份报告就足以了解情况。
- 发现特定文件的部分 -- 决定下一步要进行哪些测试 write/improve
- 随着时间的推移也没什么用,特别是随着代码的更改和移动,旧测试的行号 运行 即使经过几次提交后也不再有意义
我有一个 Django 项目,我可以在其中 运行 覆盖并创建报告
coverage run --source='.' manage.py test my_app
我想比较代码重构后随时间变化的结果。有没有办法在不创建我自己的数据模型的情况下实现这一点?
提前致谢,
None。而且我什至没有看到随着时间的推移对详细指标的足够使用以保证为他们提供数据库。
您通常对以下方面感兴趣:
- general percents (total and by modules/packages) -- 了解测试套件质量的总体情况
- 这些可以很容易地从一般测试报告本身中提取出来——尤其是当它们作为电子邮件或可以自动保存它们的东西发送时。
- 在很长一段时间内,这种动态变化仅作为下一个消失值的边际用途来决定下一步的优先级(绝对百分比和模块本身的重要性是主要因素)。通常只需隔几天看几份报告就足以了解情况。
- 发现特定文件的部分 -- 决定下一步要进行哪些测试 write/improve
- 随着时间的推移也没什么用,特别是随着代码的更改和移动,旧测试的行号 运行 即使经过几次提交后也不再有意义