<div dir="ltr"><a href="https://linbit.com/drbd-user-guide/drbd-guide-9_0-en/#s-configuring-quorum-tiebreaker">https://linbit.com/drbd-user-guide/drbd-guide-9_0-en/#s-configuring-quorum-tiebreaker</a><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Mar 8, 2024 at 4:51 PM Josh Fisher &lt;<a href="mailto:jfisher@jaybus.com">jfisher@jaybus.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><u></u>

  
    
  
  <div>
    <p><br>
    </p>
    <div>On 3/7/24 04:40, Boris Tobotras wrote:<br>
    </div>
    <blockquote type="cite">
      <pre>Hi drbd users,

I’ve set up a two-node configuration, and it works as expected protecting me from the single node failure. 
Now I want to also be protected against network failure — and the resulting split brain state.
I’ve added a third diskless node to serve as a tiebreaker. Now when I’m testing working node failure, I’m 
sometimes getting this third node promotion to an active one. </pre>
    </blockquote>
    <p><br>
    </p>
    <p><font size="4">I believe that you need 3 replicating nodes to use
        quorum. Diskless nodes do not participate in quorum, since they
        do not themselves have a copy of the replicated data and so
        cannot vouch for its validity. <br>
      </font></p>
    <p><font size="4">An alternative is to add redundancy to the network
        itself.<br>
      </font></p>
    <p><br>
    </p>
    <blockquote type="cite">
      <pre>The configuration is as follows:

resource &quot;data&quot; {
  device minor 1;
  disk /dev/sda;
  meta-disk internal;
  on &quot;worker1&quot; {
    node-id 0;
    address <a href="http://172.16.3.113:7789" target="_blank">172.16.3.113:7789</a>;
  }
  on &quot;worker2&quot; {
    node-id 1;
    address <a href="http://172.16.3.114:7789" target="_blank">172.16.3.114:7789</a>;
  }
  on &quot;breaker&quot; {
    node-id 2;
    address <a href="http://172.16.3.115:7789" target="_blank">172.16.3.115:7789</a>;
    disk none;
  }
  connection-mesh {
    hosts &quot;worker1&quot; &quot;worker2&quot; &quot;breaker&quot;;
  }
}

What am I doing wrong here?
Can DRBD be configured so the diskless node never gets promoted? 
Or is there another way to get what I need? 
Thanks a lot in advance!
</pre>
    </blockquote>
  </div>

</blockquote></div>