<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 TRANSITIONAL//EN">
<HTML>
<HEAD>
  <META HTTP-EQUIV="Content-Type" CONTENT="text/html; CHARSET=UTF-8">
  <META NAME="GENERATOR" CONTENT="GtkHTML/3.32.2">
</HEAD>
<BODY>
There are 3 tests which seemed to me as failing due to async ops.<BR>
<A HREF="https://issues.jboss.org/browse/JBPAPP-9377">https://issues.jboss.org/browse/JBPAPP-9377</A><BR>
They only fail in EC2 which is slow, so I thought it could be it.<BR>
Thanks for info, I'll look for different cause.<BR>
<BR>
Ondra<BR>
<BR>
<BR>
<BR>
On Mon, 2012-07-09 at 23:44 -0400, Jason Greene wrote:
<BLOCKQUOTE TYPE=CITE>
<PRE>
All management ops are synchronous, and execute serially. Maybe you are thinking of test ordering issues? 

Sent from my iPhone

On Jul 9, 2012, at 9:30 PM, Ond&#345;ej &#381;i&#382;ka &lt;<A HREF="mailto:ozizka@redhat.com">ozizka@redhat.com</A>&gt; wrote:

&gt; I'd also suggest to add an information to the docs of DMR operations whether they are sync or async.
&gt; Often I can see tests broken due to race condition caused by async operation, like unfinished removal of something in one test while being added in next test.
&gt; 
&gt; my2c
&gt; Ondra
&gt; 
&gt; 
&gt; 
&gt; Jason T. Greene p&#237;&#353;e v Po 09. 07. 2012 v 13:16 -0500:
&gt;&gt; 
&gt;&gt; We always have the problem of having a set of tests which fail one out 
&gt;&gt; of 10 runs, but we leave the test around hoping one day someone will fix 
&gt;&gt; it. The problem is no one does, and it makes regression catching hard. 
&gt;&gt; Right now people that submit pull requests have to scan through test 
&gt;&gt; results and ask around to figure out if they broke something or not.
&gt;&gt; 
&gt;&gt; So I propose a new policy. Any test which intermittently fails will be 
&gt;&gt; ignored and a JIRA opened to the author for up to a month. If that test 
&gt;&gt; is not passing in one month time, it will be removed from the codebase.
&gt;&gt; 
&gt;&gt; The biggest problem with this policy is that we might completely lose 
&gt;&gt; coverage. A number of the clustering tests for example fail 
&gt;&gt; intermittently, and if we removed them we would have no other coverage. 
&gt;&gt; So for special cases like clustering, I am thinking of relocating them 
&gt;&gt; to a different test run called &quot;broken-clustering&quot;, or something like 
&gt;&gt; that. This run would only be monitored by those working on clustering, 
&gt;&gt; and would not be included in the main &quot;all tests&quot; run.
&gt;&gt; 
&gt;&gt; Any other ideas?
&gt;&gt; 
&gt; 
</PRE>
</BLOCKQUOTE>
<BR>
</BODY>
</HTML>