<div dir="ltr">Ok, sounds good. Thanks Vojtech!</div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Sep 29, 2016 at 11:13 AM, Vojtech Juranek <span dir="ltr">&lt;<a href="mailto:vjuranek@redhat.com" target="_blank">vjuranek@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Sebastian,<br>
sorry for late reply.<br>
<span class=""><br>
&gt; The only thing that comes into my mind is to test it with<br>
&gt; Kubernetes/OpenShift Ceph volumes [6].<br>
<br>
</span>I&#39;m not very familiar with k8s and its doc page doesn&#39;t provide any detail how<br>
it works under the hood, but AFAICT (looking on the source code [1]), it uses<br>
Ceph FS, not directly librados which is used by cache store, so IMHO there&#39;s<br>
not much to test. Single file store or soft index files store would be more<br>
appropriate to test with k8s Ceph volume.<br>
<br>
But what I&#39;d like to do definitely in the future is some performance<br>
comparison between Ceph store using directly librados, cloud store using Ceph<br>
via RadosGW and single file store using Ceph via CephFS.<br>
<br>
Thanks<br>
Vojta<br>
<br>
[1]<br>
<a href="https://github.com/kubernetes/kubernetes/blob/master/pkg/volume/cephfs/cephfs.go" rel="noreferrer" target="_blank">https://github.com/kubernetes/<wbr>kubernetes/blob/master/pkg/<wbr>volume/cephfs/cephfs.go</a><br>
<br>______________________________<wbr>_________________<br>
infinispan-dev mailing list<br>
<a href="mailto:infinispan-dev@lists.jboss.org">infinispan-dev@lists.jboss.org</a><br>
<a href="https://lists.jboss.org/mailman/listinfo/infinispan-dev" rel="noreferrer" target="_blank">https://lists.jboss.org/<wbr>mailman/listinfo/infinispan-<wbr>dev</a><br></blockquote></div><br></div>