<div dir="ltr">Hello,<div><br></div><div>Trying to create a new resource by using <span class="" id=":10id.22" tabindex="-1" style="">Linstor</span>, on a 3 node cluster. Two of the nodes are using <span class="" id=":10id.23" tabindex="-1" style="">LVM</span> thin as storage <span class="" id=":10id.24" tabindex="-1" style="">backend</span> and one of them is using <span class="" id=":10id.25" tabindex="-1" style="">ZFS</span>.<br></div><div><br></div><div>I created a test RD, then a VD with a size of 10GB. Then, I create the resource on the <span class="" id=":10id.26" tabindex="-1" style="">LVM</span> backed nodes by using &#39;linstor r c &lt;node1&gt; test&#39; and &#39;linstor r c &lt;node2&gt; test&#39; and the command succeeds. </div><div>However, when I do the same for the 3rd node (<span class="" id=":10id.27" tabindex="-1" style="">ZFS</span> backed), it hangs forever and I have to issue <span class="" id=":10id.28" tabindex="-1" style="">ctrl</span>-c to cancel the operation.If I add the &#39;--async&#39; option, it succeeds and I can see that the <span class="" id=":10id.29" tabindex="-1" style="">ZVOL</span> is created for the requested resource, but when observing the resource via <span class="" id=":10id.30" tabindex="-1" style="">drbdtop</span>, the 3rd node does not sync properly with the other two. </div><div>On the <span class="" id=":10id.31" tabindex="-1" style="">dmesg</span> log in <span class="" id=":10id.32" tabindex="-1" style="">drbdtop</span> for this resource I get the following (pve3 is the 3rd node):</div><div>&quot;[81307.730199] <span class="" id=":10id.33" tabindex="-1" style="">drbd</span> test/0 drbd1000 pve3: The peer&#39;s disk size is too small! (20971520 &lt; 20975152 sectors)</div><div><br></div><div>This is reproducible in all my attempts to create any random resource on the 3rd node. Could this be happening due to the alignment issues that Robert mentioned on the previous post?</div><div><br></div><div>For now, the workaround for me has been to create the resources on <span class="" id=":10id.34" tabindex="-1" style="">LVM</span> backed nodes, leaving the 3rd node (<span class="" id=":10id.35" tabindex="-1" style="">ZFS</span>) as a <span class="" id=":10id.36" tabindex="-1" style="">diskless</span> node. </div><div>When I was using <span class="" id=":10id.37" tabindex="-1" style="">drbdmanage</span> for managing the same cluster, I never had this problem.</div><div><br></div><div>Any suggestions ?</div><div><br></div><div>Regards,</div><div><span class="" id=":10id.38" tabindex="-1" style="">Yannis</span></div><div><br></div></div>