<div>I think I&#39;ve solved this - the linux server was running J6u21, whereas the desktop is on J6u10. It seems there have been some subtle changes in the GC implementation between these which were causing the GC to thrash when nearing the heap limit. Running with u10 on the server brings the time down to 13s. Running u22, but doubling the available memory, brings it down to half that.</div>

<div> </div>
<div>Tim<br><br></div>
<div class="gmail_quote">On 19 October 2010 14:09, Tim 4076 <span dir="ltr">&lt;<a href="mailto:tm4076@gmail.com">tm4076@gmail.com</a>&gt;</span> wrote:<br>
<blockquote style="BORDER-LEFT: #ccc 1px solid; MARGIN: 0px 0px 0px 0.8ex; PADDING-LEFT: 1ex" class="gmail_quote">
<div>My dev box runs Windows XP with an oldish intel core 2. It processes my rules in 13s, with a peak memory usage of about 600MB.</div>
<div> </div>
<div>When I run the exact same code on my 64bit linux server with a quad 2.40Ghz Xeon, it takes 22s and uses a peak of 1.5Gb memory.</div>
<div> </div>
<div>What on earth is going on here? I would expect it to run faster on the server and for the memory usage to be similar.</div>
<div> </div>
<div> </div>
<div>Cheers,</div>
<div>Tim</div></blockquote></div><br>