<p dir="ltr">Have you tried on-congestion pull-ahead in protocol A?</p>
<p dir="ltr">J.R. Lillard<br>
System / Network Admin<br>
Web Programmer<br>
Golden Heritage Foods</p>
<div class="gmail_quote">On Nov 10, 2013 1:11 PM, &quot;Bram Matthys&quot; &lt;<a href="mailto:syzop@vulnscan.org">syzop@vulnscan.org</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi all,<br>
<br>
Any ideas? I&#39;m essentially blocked now.. I can&#39;t go into production with<br>
these write speeds.<br>
<br>
Am I the only one who experiences a &gt;60% degradation of write speed when the<br>
two nodes are connected to each other? With full disk speed only in<br>
disconnected state?<br>
<br>
Regards,<br>
<br>
Bram.<br>
<br>
Bram Matthys wrote, on 3-11-2013 11:26:<br>
&gt; Hi,<br>
&gt;<br>
&gt; Using a RAID10 array now and (following Arnolds advice) the metadata is now<br>
&gt; on another (SSD) disk.<br>
&gt; Write speeds are still bad, but are ONLY low when both nodes are connected.<br>
&gt;<br>
&gt; root@st2:/data# sync; echo 3 &gt;/proc/sys/vm/drop_caches ;sync; dd<br>
&gt; if=/dev/zero of=5G bs=1M count=5000; rm -f 5G<br>
&gt; 5000+0 records in<br>
&gt; 5000+0 records out<br>
&gt; 5242880000 bytes (5.2 GB) copied, 57.1802 s, 91.7 MB/s<br>
&gt;<br>
&gt; root@st2:/data# drbdadm disconnect data<br>
&gt; root@st2:/data# sync; echo 3 &gt;/proc/sys/vm/drop_caches ;sync; dd<br>
&gt; if=/dev/zero of=5G bs=1M count=5000; rm -f 5G<br>
&gt; 5000+0 records in<br>
&gt; 5000+0 records out<br>
&gt; 5242880000 bytes (5.2 GB) copied, 21.4724 s, 244 MB/s<br>
&gt;<br>
&gt; When I (re)connect data again, the resync speed is fine:<br>
&gt; st1# cat /proc/drbd<br>
&gt; version: 8.3.11 (api:88/proto:86-96)<br>
&gt; srcversion: F937DCB2E5D83C6CCE4A6C9<br>
&gt;<br>
&gt;  1: cs:SyncTarget ro:Secondary/Primary ds:Inconsistent/UpToDate C r-----<br>
&gt;     ns:0 nr:5121168 dw:5121168 dr:2010340 al:0 bm:133 lo:0 pe:206 ua:0 ap:0<br>
&gt; ep:1 wo:d oos:3130232<br>
&gt;         [======&gt;.............] sync&#39;ed: 38.9% (3056/4996)Mfinish: 0:00:14<br>
&gt; speed: 220,760 (220,760) want: 256,000 K/sec<br>
&gt;<br>
&gt; And, as mentioned earlier, netperf achieves near-10gE speed:<br>
&gt; # netperf -H 192.168.220.1<br>
&gt; TCP STREAM TEST from 0.0.0.0 (0.0.0.0) port 0 AF_INET to 192.168.220.1<br>
&gt; (192.168.220.1) port 0 AF_INET : demo<br>
&gt; Recv   Send    Send<br>
&gt; Socket Socket  Message  Elapsed<br>
&gt; Size   Size    Size     Time     Throughput<br>
&gt; bytes  bytes   bytes    secs.    10^6bits/sec<br>
&gt;<br>
&gt;  87380  16384  16384    10.00    9897.79<br>
&gt; (same in both directions)<br>
&gt;<br>
&gt; It doesn&#39;t matter whether I make server st1 or st2 primary (so either<br>
&gt; server) and do the tests... with both they achieve around 240 MB/s write<br>
&gt; speed in disconnected mode and around 80-90 MB/s when connected, so ~ 1/3rd.<br>
&gt;<br>
&gt; Any ideas?<br>
&gt;<br>
&gt; # drbdadm dump<br>
&gt; # /etc/drbd.conf<br>
&gt; common {<br>
&gt;     protocol               C;<br>
&gt;     startup {<br>
&gt;         degr-wfc-timeout 120;<br>
&gt;         wfc-timeout      120;<br>
&gt;     }<br>
&gt; }<br>
&gt;<br>
&gt; # resource data on st2: not ignored, not stacked<br>
&gt; resource data {<br>
&gt;     on st1 {<br>
&gt;         device           /dev/drbd1 minor 1;<br>
&gt;         disk             /dev/md4;<br>
&gt;         address          ipv4 <a href="http://192.168.220.1:7789" target="_blank">192.168.220.1:7789</a>;<br>
&gt;         meta-disk        /dev/md3 [0];<br>
&gt;     }<br>
&gt;     on st2 {<br>
&gt;         device           /dev/drbd1 minor 1;<br>
&gt;         disk             /dev/md4;<br>
&gt;         address          ipv4 <a href="http://192.168.220.2:7789" target="_blank">192.168.220.2:7789</a>;<br>
&gt;         meta-disk        /dev/md3 [0];<br>
&gt;     }<br>
&gt;     net {<br>
&gt;         data-integrity-alg sha256;<br>
&gt;         max-buffers      8000;<br>
&gt;         max-epoch-size   8000;<br>
&gt;         sndbuf-size      512k;<br>
&gt;     }<br>
&gt;     disk {<br>
&gt;         no-disk-barrier;<br>
&gt;         no-disk-flushes;<br>
&gt;     }<br>
&gt;     syncer {<br>
&gt;         csums-alg        sha256;<br>
&gt;         rate             250M;<br>
&gt;     }<br>
&gt; }<br>
&gt;<br>
&gt; NOTE: I was using protocol A without no-disk-* before, just using<br>
&gt; C/no-disk-* to see if it made any significant difference: answer is no.<br>
&gt;<br>
&gt; root@st2:/data# uname -a<br>
&gt; Linux st2 3.2.0-4-amd64 #1 SMP Debian 3.2.46-1+deb7u1 x86_64 GNU/Linux<br>
&gt; root@st2:/data# cat /proc/drbd<br>
&gt; version: 8.3.11 (api:88/proto:86-96)<br>
&gt; srcversion: F937DCB2E5D83C6CCE4A6C9<br>
&gt;<br>
&gt;  1: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----<br>
&gt;     ns:5121332 nr:0 dw:15358180 dr:5130289 al:3773 bm:377 lo:0 pe:0 ua:0<br>
&gt; ap:0 ep:1 wo:d oos:0<br>
&gt;<br>
&gt; root@st2:/data# dpkg --list|grep drbd<br>
&gt; ii  drbd8-utils                        2:8.3.13-2                    amd64<br>
&gt;       RAID 1 over tcp/ip for Linux utilities<br>
&gt;<br>
&gt; If you need anything else, just let me know.<br>
&gt;<br>
&gt; Thanks again,<br>
&gt;<br>
&gt; Bram.<br>
&gt;<br>
&gt; Arnold Krille wrote, on 7-10-2013 1:37:<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; On Sun, 06 Oct 2013 18:54:12 +0200 Bram Matthys &lt;<a href="mailto:syzop@vulnscan.org">syzop@vulnscan.org</a>&gt;<br>
&gt;&gt; wrote:<br>
&gt;&gt;&gt; I&#39;m currently testing DRBD and am having write performance problems.<br>
&gt;&gt;&gt; On the local raid array I achieve 124MB/s, but with DRBD I get only<br>
&gt;&gt;&gt; 41MB/s out of it, or if the secondary node is down (to rule out<br>
&gt;&gt;&gt; network issues) then 53MB/s at best.<br>
&gt;&gt;&gt; Tried protocol A / B / C, with and without no-disk-barriers and<br>
&gt;&gt;&gt; no-disk-flushes, but this didn&#39;t change much (only +/- 2MB/s<br>
&gt;&gt;&gt; difference).<br>
&gt;&gt; &lt;snip&gt;<br>
&gt;&gt;<br>
&gt;&gt; Yep, internal meta-disk: write block, seek to end, write log, seek to<br>
&gt;&gt; front, write block, seek to end, write log...<br>
&gt;&gt;<br>
&gt;&gt; Put the meta-disk on a different hd and watch your write rate go up.<br>
&gt;&gt;<br>
&gt;&gt; - Arnold<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; drbd-user mailing list<br>
&gt;&gt; <a href="mailto:drbd-user@lists.linbit.com">drbd-user@lists.linbit.com</a><br>
&gt;&gt; <a href="http://lists.linbit.com/mailman/listinfo/drbd-user" target="_blank">http://lists.linbit.com/mailman/listinfo/drbd-user</a><br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
<br>
<br>
--<br>
Bram Matthys<br>
Software developer/IT consultant        <a href="mailto:syzop@vulnscan.org">syzop@vulnscan.org</a><br>
Website:                                  <a href="http://www.vulnscan.org" target="_blank">www.vulnscan.org</a><br>
PGP key:                       <a href="http://www.vulnscan.org/pubkey.asc" target="_blank">www.vulnscan.org/pubkey.asc</a><br>
PGP fp: EBCA 8977 FCA6 0AB0 6EDB  04A7 6E67 6D45 7FE1 99A6<br>
<br>
<br>
_______________________________________________<br>
drbd-user mailing list<br>
<a href="mailto:drbd-user@lists.linbit.com">drbd-user@lists.linbit.com</a><br>
<a href="http://lists.linbit.com/mailman/listinfo/drbd-user" target="_blank">http://lists.linbit.com/mailman/listinfo/drbd-user</a><br>
</blockquote></div>