Hi Gabor.<br><br><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">
&gt; Is this what we get from the famous CPAN and the testers? modules that can<br>
&gt; not be installed, silenced tests (I wrote about it a month ago) and a lot of<br>
&gt; headache.<br>
<br>
</div>The most basic way to help is to configure your CPAN client so<br>
it will report every success and failure to the CPAN Testers<br>
and to the authors of the modules.<br></blockquote><div> <br>It is not that these failure are not reported - you can see them in CPAN test results. They are just ignored. <br>Now I know that is quite difficult to debug using CPAN. you release a version, see the failures, (which may take a week to arrive) try to understand what differentiate the passing systems from the failing systems, (is that the OS? some compilation option?) fix the bug, release another version, wait another week... been there done that.<br>
<br>But as modules use more and more dependecies, these small 2% failures add up.<br><br></div>You want to fix it? tell me, if the auto CPAN tester is trying to test a release, and it fails to install a dependency, what does it do?<br>
maybe it should mark a failure in installing a dependency as failure in that module too. or maybe in all the dependencies. So people will see the real picture on the installability of their module, and will avoid using modules that are buggy.<br>
<br>Oh, and here is a project for someone with free time: automatically classify the test failures. this is a classic categorization problem.<br><br>Shmuel. <br></div></div>