<div dir="ltr"><div><div><div><div>Hi Yannis,<br><br></div>Thanks for the information you provided.  <br><br>On pve1, I have initiate the cluster and add the node pve2.  When the drbdctrl is primary on pve1 (secondary on pve2) and I shutdown the pve2, the drbd storage is available.  I can do any manipulation and even the VM is working.  But on the other side, if I shutdown pve1 (where drbdctrl is primary), the drbd storage is not available on pve2.  Moreover, any drbdmanage commands (lists-nodes, volumes etc..) does not work on pve2.  it says: <br><br>root@pve2:~# drbdmanage list-nodes <br>Waiting for server: ...............<br>No nodes defined<br><br></div>The log goes as follows:<br>Mar 14 13:39:39 pve2 drbdmanaged[20776]: INFO       Leader election by wait for connections<br>Mar 14 13:39:39 pve2 drbdmanaged[20776]: INFO       DrbdAdm: Running external command: drbdsetup wait-connect-resource --wait-after-sb=yes --wfc-timeout=2 .drbdctrl<br>Mar 14 13:39:41 pve2 drbdmanaged[20776]: ERROR      DrbdAdm: External command &#39;drbdsetup&#39;: Exit code 5<br>Mar 14 13:39:41 pve2 drbdmanaged[20776]: ERROR      drbdsetup/stderr: degr-wfc-timeout has to be shorter than wfc-timeout<br>Mar 14 13:39:41 pve2 drbdmanaged[20776]: ERROR      drbdsetup/stderr: degr-wfc-timeout implicitly set to wfc-timeout (2s)<br>Mar 14 13:39:41 pve2 drbdmanaged[20776]: ERROR      drbdsetup/stderr: outdated-wfc-timeout has to be shorter than degr-wfc-timeout<br>Mar 14 13:39:41 pve2 drbdmanaged[20776]: ERROR      drbdsetup/stderr: outdated-wfc-timeout implicitly set to degr-wfc-timeout (2s)<br>Mar 14 13:39:41 pve2 drbdmanaged[20776]: WARNING    Resource &#39;.drbdctrl&#39;: wait-connect-resource not finished within 2 seconds<br><br><br></div><div>Regarding the Split Brain issue, I can&#39;t find in the log that a split brain situation has been detected on survival node ie pve2 for the moment.  I have done a drbdmanage primary drbdctrl but still the drbd storage is not available.  How can I resolve the split brain manually so as the drbd storage continues to work even if pve1 (primary is down).  <br></div><br></div>I will try to test the scenario by adding a third drbd node (pve3) to the cluster (drbdmanage add-node command) on pve1 and I will let you know.  <br><br><div><div><div>Thanks<br></div><div><br><div>Shafeek<br></div><div><br><br></div></div></div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Mar 13, 2017 at 10:41 PM, Yannis Milios <span dir="ltr">&lt;<a href="mailto:yannis.milios@gmail.com" target="_blank">yannis.milios@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>&gt;the drdb storage becomes unavailable &gt;and the drbd quorum is lost..<br></div><div><br></div><div>From my experience using only 2 nodes on drbd9 does not work well, meaning that the cluster loose quorum and you have to manually troubleshoot the split brain.</div><div>If you really need a stable system, then use 3 drbd nodes. You could possibly use the 3rd node as a drbd control node only ?? Just guessing...</div><span class="HOEnZb"><font color="#888888"><div><br></div><div>Yannis</div><div dir="ltr">-- <br></div><div data-smartmail="gmail_signature">Sent from Gmail Mobile</div>
</font></span></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr">Shafeek SUMSER<br></div></div></div></div>
</div>