<div><div dir="auto">Are you planning to use DRBD8 or DRBD9?</div><div dir="auto"><br></div><div dir="auto">DRBD8 is limited to 2 nodes(max 3).</div><div dir="auto">DRBD9 can scale to multiple nodes.</div><div dir="auto"><br></div><div dir="auto">For DRBD8 the most common setup is RAID -&gt; DRBD -&gt; LVM  or  RAID -&gt; LVM -&gt; DRBD</div><div dir="auto">It’s management is way easier than DRBD9.</div><div dir="auto"><br></div><div dir="auto">The most common DRBD9 setups are RAID -&gt; LVM (thin or thick) -&gt; DRBD  or  HDD  -&gt;  ZFS (thin or thick)  -&gt;  DRBD.</div><div dir="auto">Complicated management...  <br></div><br><div class="gmail_quote"><div>On Wed, 11 Oct 2017 at 20:52, Gandalf Corvotempesta &lt;<a href="mailto:gandalf.corvotempesta@gmail.com">gandalf.corvotempesta@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">2017-10-11 21:22 GMT+02:00 Adam Goryachev &lt;<a href="mailto:mailinglists@websitemanagers.com.au" target="_blank">mailinglists@websitemanagers.com.au</a>&gt;:<br>
&gt; You can also do that with raid + lvm + drbd... you just need to create a new<br>
&gt; drbd as you add a new LV, and also resize the drbd after you resize the LV.<br>
<br>
I prefere to keep drbd as minimum. I&#39;m much more familiar with LVM.<br>
If not an issue, i prefere to keep the number of drbd resources as bare minimum.<br>
<br>
&gt; If both drives fail on one node, then raid will pass the disk errors up to<br>
&gt; DRBD, which will mark the local storage as down, and yes, it will read all<br>
&gt; needed data from remote node (writes are always sent to the remote node).<br>
&gt; You would probably want to migrate the remote node to primary as quickly as<br>
&gt; possible, and then work on fixing the storage.<br>
<br>
Why should I migrate the remote node to primary? Any advantage?<br>
<br>
&gt; Yes, it is not some bizarre configuration that has never been seen before.<br>
&gt; You also haven&#39;t mentioned the size of your proposed raid, nor what size you<br>
&gt; are planning on growing it to?<br>
<br>
Currently, I&#39;m planning to start with 2TB disks. I don&#39;t think to go<br>
over 10-12TB<br>
<br>
&gt; Yes, you will always want multiple network paths between the two nodes, and<br>
&gt; also fencing. bonding can be used to improve performance, but you should<br>
&gt; *also* have an additional network or serial or other connection between the<br>
&gt; two nodes which is used for fencing.<br>
<br>
Ok.<br>
<br>
Any &quot;bare-metal&quot; distribution with DRBD or detailed guide on how to<br>
implement HA?<br>
Something like FreeNAS, or similiar.<br>
_______________________________________________<br>
drbd-user mailing list<br>
<a href="mailto:drbd-user@lists.linbit.com" target="_blank">drbd-user@lists.linbit.com</a><br>
<a href="http://lists.linbit.com/mailman/listinfo/drbd-user" rel="noreferrer" target="_blank">http://lists.linbit.com/mailman/listinfo/drbd-user</a><br>
</blockquote></div></div><div dir="ltr">-- <br></div><div class="gmail_signature" data-smartmail="gmail_signature">Sent from Gmail Mobile</div>