<div dir="ltr">I just finished a full regression test of my new meshing code. It involves visually inspecting and measuring several meshes in a 3d display environment (currently blender) and collision testing over 400 prims in my test region. I'd love to have an automated way to do this, but at this point I'm at a loss how to do it with my current toolset. I guess if physical object collisions could generate accurate position data, I could set up scripts to rez physical objects, let them collide, record the results and compare them with expected results, but so far I haven't found the time to set something like that up, nor would I trust it considering the inaccuracies I've found in SL's collisions.  For now, a full regression takes 3-4 hours of my time, but fortunately an abbreviated test will suffice more often than a full one.<br>
<br>BTW, the test passed! :D  I'll be committing the code as soon as I can clean up the interface to ODE.<br><br><div class="gmail_quote">On Tue, Aug 26, 2008 at 6:39 PM, Mike Mazur <span dir="ltr"><<a href="mailto:mmazur@gmail.com">mmazur@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Hi,<br>
<div class="Ih2E3d"><br>
On Tue, 26 Aug 2008 09:24:21 -0400<br>
Sean Dague <<a href="mailto:sdague@gmail.com">sdague@gmail.com</a>> wrote:<br>
<br>
> Honestly, I think any formal manual testing is mostly wasted effort at<br>
> this point.  If these things were part of something automated, that<br>
> would be a different story.<br>
<br>
</div>I disagree. If we can get people dedicated to run through some manual<br>
tests at regularly scheduled intervals, I'm sure they can provide<br>
benefits. For instance, it can regularly be confirmed which releases<br>
behave as expected when the tests pass, which is better than the<br>
current "Hey guys, what recent SVN revision was stable so we can tag<br>
0.5.10?"<br>
<br>
The key lies in having somebody around who is willing to do this. In<br>
fact, they can get started right away, take a revision they like on a<br>
Friday, run through the tests and post the results on the Wiki. If<br>
after a while they realize nobody cares they'll stop and we'll just end<br>
up where are now.<br>
<br>
Having said all that, I'm not going to do it :)<br>
<div class="Ih2E3d"><br>
On Tue, 26 Aug 2008 17:58:24 +0200<br>
Lc <<a href="mailto:lcc1967@gmail.com">lcc1967@gmail.com</a>> wrote:<br>
<br>
> yes but no automatic test will find any inventory or assets issues or<br>
> other wearable prims lost in the metagrid...<br>
<br>
</div>There are some tasks for which automated tests are difficult to design.<br>
Things like "Does the avatar sit properly on this prim?"<br>
<br>
Also, a quick suggestion to your test plan -- you need to remember the<br>
different set ups that people can have: two regions on one machine, two<br>
regions on separate machines, etc. Most tests will need to be performed<br>
on all combinations of setups.<br>
<font color="#888888"><br>
Mike<br>
</font><div><div></div><div class="Wj3C7c">_______________________________________________<br>
Opensim-dev mailing list<br>
<a href="mailto:Opensim-dev@lists.berlios.de">Opensim-dev@lists.berlios.de</a><br>
<a href="https://lists.berlios.de/mailman/listinfo/opensim-dev" target="_blank">https://lists.berlios.de/mailman/listinfo/opensim-dev</a><br>
</div></div></blockquote></div><br></div>