<div dir="ltr">I didn&#39;t explain myself well enough, I meant like would a stop/start, verify or some other command cause the OOS to be pushed to the secondary?<div><br></div><div>The link speed when performing a verify is about 75MB/s I would think that would be fast enough and the disk is a cloud block volume which is potentially much faster.</div><div>It just seems that once bytes are in OOS that they&#39;re not pushed again until something else happens, maybe it&#39;s some idle state or something else?</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Oct 21, 2019 at 7:52 PM Digimer &lt;<a href="mailto:lists@alteeve.ca">lists@alteeve.ca</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Without knowing your setup or what is limiting you; I can suggest two<br>
options;<br>
<br>
1. Faster hardware (links speed / peer disk)<br>
2. Switch to Protocol C<br>
<br>
digimer<br>
<br>
On 2019-10-21 4:36 p.m., G C wrote:<br>
&gt; Is there anything that will force the OOS to push what is out of sync?<br>
&gt; <br>
&gt; <br>
&gt; On Mon, Oct 21, 2019 at 11:00 AM Digimer &lt;<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a><br>
&gt; &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>&gt;&gt; wrote:<br>
&gt; <br>
&gt;     Tuning is quite instance-specific. I would always suggest starting by<br>
&gt;     commenting out all tuning, see how it behaves, then tune. Premature<br>
&gt;     optimization never is.<br>
&gt; <br>
&gt;     digimer<br>
&gt; <br>
&gt;     On 2019-10-21 1:31 p.m., G C wrote:<br>
&gt;     &gt; Would any of these values being changed help or would it need to<br>
&gt;     be the<br>
&gt;     &gt; actual speed between the two nodes that needs to be increased?<br>
&gt;     &gt;<br>
&gt;     &gt; disk {<br>
&gt;     &gt;         on-io-error detach;<br>
&gt;     &gt;         c-plan-ahead 10;<br>
&gt;     &gt;         c-fill-target 24M;<br>
&gt;     &gt;         c-min-rate 80M;<br>
&gt;     &gt;         c-max-rate 720M;<br>
&gt;     &gt;     }<br>
&gt;     &gt;     net {<br>
&gt;     &gt;         protocol A;<br>
&gt;     &gt;         max-buffers 36k;<br>
&gt;     &gt;         sndbuf-size 1024k;<br>
&gt;     &gt;         rcvbuf-size 2048k;<br>
&gt;     &gt;     }<br>
&gt;     &gt;<br>
&gt;     &gt; Thank you<br>
&gt;     &gt;<br>
&gt;     &gt;<br>
&gt;     &gt;<br>
&gt;     &gt; On Mon, Oct 21, 2019 at 10:10 AM Digimer &lt;<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a><br>
&gt;     &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>&gt;<br>
&gt;     &gt; &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a> &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>&gt;&gt;&gt; wrote:<br>
&gt;     &gt;<br>
&gt;     &gt;     I assumed it wasn&#39;t paused, but that confirms it.<br>
&gt;     &gt;<br>
&gt;     &gt;     Protocol A allows for out of sync to grow. It says &quot;when the<br>
&gt;     data in on<br>
&gt;     &gt;     the network buffer to send to the peer, consider the write<br>
&gt;     complete&quot;. As<br>
&gt;     &gt;     such, data that hasn&#39;t made it over to the peer causes oos to<br>
&gt;     climb. If<br>
&gt;     &gt;     you have a steady write rate that is faster than your transmit<br>
&gt;     &gt;     bandwidth, then seeing fairly steady OOS makes sense.<br>
&gt;     &gt;<br>
&gt;     &gt;     To &quot;fix&quot; it, you need to increase the connection speed to the<br>
&gt;     peer node.<br>
&gt;     &gt;     Or, less likely, if the peer&#39;s disk is slower than the bandwidth<br>
&gt;     &gt;     connecting it, speed up the disk write speed.<br>
&gt;     &gt;<br>
&gt;     &gt;     In either case, what you are seeing is not a surprise, and<br>
&gt;     it&#39;s not a<br>
&gt;     &gt;     problem with DRBD. The only other option is to use protocol C,<br>
&gt;     so that a<br>
&gt;     &gt;     write isn&#39;t complete until it reaches the peer, but that will<br>
&gt;     slow down<br>
&gt;     &gt;     the write performance of the primary node to be whatever speed<br>
&gt;     you have<br>
&gt;     &gt;     to the peer. That&#39;s likely unacceptable.<br>
&gt;     &gt;<br>
&gt;     &gt;     In short, you have a hardware/resource issue.<br>
&gt;     &gt;<br>
&gt;     &gt;     digimer<br>
&gt;     &gt;<br>
&gt;     &gt;     On 2019-10-21 12:19 p.m., G C wrote:<br>
&gt;     &gt;     &gt; version: 8.4.10<br>
&gt;     &gt;     &gt; Ran the resume-sync all and received:<br>
&gt;     &gt;     &gt; 0: Failure: (135) Sync-pause flag is already cleared<br>
&gt;     &gt;     &gt; Command &#39;drbdsetup-84 resume-sync 0&#39; terminated with exit<br>
&gt;     code 10<br>
&gt;     &gt;     &gt;<br>
&gt;     &gt;     &gt; Protocol used is &#39;A&#39;, our systems are running on a cloud<br>
&gt;     environment.<br>
&gt;     &gt;     &gt;<br>
&gt;     &gt;     &gt;<br>
&gt;     &gt;     &gt;<br>
&gt;     &gt;     &gt;<br>
&gt;     &gt;     &gt; On Mon, Oct 21, 2019 at 9:09 AM Digimer &lt;<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a><br>
&gt;     &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>&gt;<br>
&gt;     &gt;     &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a> &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>&gt;&gt;<br>
&gt;     &gt;     &gt; &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a> &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>&gt;<br>
&gt;     &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a> &lt;mailto:<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>&gt;&gt;&gt;&gt; wrote:<br>
&gt;     &gt;     &gt;<br>
&gt;     &gt;     &gt;     8.9.2 is the utils version, what is the kernel module<br>
&gt;     version?<br>
&gt;     &gt;     &gt;     (8.3.x/8.4.x/9.0.x)?<br>
&gt;     &gt;     &gt;<br>
&gt;     &gt;     &gt;     It&#39;s possible something paused sync, but I doubt it. You<br>
&gt;     can try<br>
&gt;     &gt;     &gt;     &#39;drbdadm resume-sync all&#39;. The oos number should change<br>
&gt;     &gt;     constantly, any<br>
&gt;     &gt;     &gt;     time a block changes it should go up and every time a block<br>
&gt;     &gt;     syncs it<br>
&gt;     &gt;     &gt;     should go down.<br>
&gt;     &gt;     &gt;<br>
&gt;     &gt;     &gt;     What protocol are you using? A, B or C?<br>
&gt;     &gt;     &gt;<br>
&gt;     &gt;     &gt;     digimer<br>
&gt;     &gt;<br>
&gt;     &gt;<br>
&gt;     &gt;     --<br>
&gt;     &gt;     Digimer<br>
&gt;     &gt;     Papers and Projects: <a href="https://alteeve.com/w/" rel="noreferrer" target="_blank">https://alteeve.com/w/</a><br>
&gt;     &gt;     &quot;I am, somehow, less interested in the weight and convolutions of<br>
&gt;     &gt;     Einstein’s brain than in the near certainty that people of<br>
&gt;     equal talent<br>
&gt;     &gt;     have lived and died in cotton fields and sweatshops.&quot; -<br>
&gt;     Stephen Jay<br>
&gt;     &gt;     Gould<br>
&gt;     &gt;<br>
&gt; <br>
&gt; <br>
&gt;     -- <br>
&gt;     Digimer<br>
&gt;     Papers and Projects: <a href="https://alteeve.com/w/" rel="noreferrer" target="_blank">https://alteeve.com/w/</a><br>
&gt;     &quot;I am, somehow, less interested in the weight and convolutions of<br>
&gt;     Einstein’s brain than in the near certainty that people of equal talent<br>
&gt;     have lived and died in cotton fields and sweatshops.&quot; - Stephen Jay<br>
&gt;     Gould<br>
&gt; <br>
<br>
<br>
-- <br>
Digimer<br>
Papers and Projects: <a href="https://alteeve.com/w/" rel="noreferrer" target="_blank">https://alteeve.com/w/</a><br>
&quot;I am, somehow, less interested in the weight and convolutions of<br>
Einstein’s brain than in the near certainty that people of equal talent<br>
have lived and died in cotton fields and sweatshops.&quot; - Stephen Jay Gould<br>
</blockquote></div>