Mark,<br><br>syncer rate does not define the overall drbd performance between the two nodes, but rather it designates a limit for re-syncing, to assure normal system performance while it is happening in the backgrounnd (so your re-sync processes dont eat up all your bandwidth between your drbd nodes, and normal drbd usage can happen). <br>
<br>It has nothing to do with the working performance of a single drbd device pair see more here: <a href="http://www.drbd.org/users-guide/s-configure-syncer-rate.html">http://www.drbd.org/users-guide/s-configure-syncer-rate.html</a><br>
<br>Originally it was set to be 80M in this case, but probably it should be even lower, since despite the iperf results, I never saw a drbd go over the 117MB/s (single gigabit link hitting performance wall), so it probably should be as low as 35MB/s<br>
<br>As I wrote before, the two boxes have three gigabit links dedicated for DRBD, these are bonded using the balance-rr mode, and with arp ip monitoring (basically I can unplug any of the cables between the nodes, in any order, and plug them back in, as long there is a single link, the connection is uninterrupted, also depending how many gigabit links are allive the bandwidth scales up with every additional connection, pretty swift actually)<br>
<br>What I would like to see is higher write rates. I know how the different bondings work, I also know balance-rr is the only where a single connection cab scale beyond the capacity of a single card, and it clearly happens when I benchamrk it with iperf, but never saw it in DRBD.<br>
<br>Now, since this is a Xen Dom0, I have been able to do more testing in the DomU itself (half of the testing was done before I wrote to the mailing list)<br><br>In the paravirtualized DomU, the drbd devices are inported as xvdb to xvdf, and they were used:<br>
<br>1) as phisical volumes for the LVM in the DomU itseld, setting up the logical volumes using striping in LVM<br><br>2) as part of a raid0 stripe<br><br>3) raid0 stripe in above as a phisical volume for LVM<br><br>There is no signofocant difference in either mode.<br>
<br>I have even tested a RAID_0 stripe over the drbd volumes in the Xen Dom0, same results.<br><br>I also know about the LVM default block device performance issues, and &quot;blockdev --setra&quot; is used as a workaround on all levels<br>
<br>Whenever I disconnect drbd, performance is as expected (close to the raid10 performance measured)<br><br>The reason this is so annoying, is because on both the DRBD wiki and in the mail list there are hints that even over a dual gigabit link in ballance-rr performance is much better, see them yourself:<br>
<br><a href="http://www.drbd.org/home/wiki/?tx_drwiki_pi1[keyword]=performance">http://www.drbd.org/home/wiki/?tx_drwiki_pi1[keyword]=performance</a><br><br><a href="http://www.nabble.com/DRBD-Performance-td18745802.html">http://www.nabble.com/DRBD-Performance-td18745802.html</a><br>
<br><a href="http://lists.linbit.com/pipermail/drbd-user/2008-July/009893.html">http://lists.linbit.com/pipermail/drbd-user/2008-July/009893.html</a><br><br><br>Also if it not clear, this is a nested LVM (with the DRBD&#39;s being the phisical volumes for LVM in the paravirtualized xen instance, DRBD is running in Dom0):<br>
<br>                                                                                 DRBD&lt;-----|                  |&lt;-----xvdb (PV)|<br>Xen Dom0 6XHDD&lt;-----RAID10&lt;-----LVM&lt;-----DRBD&lt;-----|XenDomU|&lt;-----xvdc (PV)|&lt;-----LVM&lt;----file ystems<br>

                                                                                 DRBD&lt;-----|                  |&lt;-----xvdd|(PV)|<br><br>As a side note, I am a seasoned sysadmin of fifteen years and use linux practically for everything for the last  ten years, work with it at least twelve hours a day (mostly more than that, I am lucky to do for living what I love, and work and fun are the same)<br>
<br>So, anybody knows how those magical numbers were achived under those links?<br><br>z<br><br><div class="gmail_quote">On Thu, Jul 30, 2009 at 9:18 AM, Mark Watts <span dir="ltr">&lt;<a href="mailto:m.watts@eris.qinetiq.com">m.watts@eris.qinetiq.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="im">On Thu, 2009-07-30 at 03:57 -0400, Zoltan Patay wrote:<br>
&gt; using &quot;dd if=/dev/zero of=/dev/drbd26 bs=10M count=100&quot; I get:<br>
&gt;<br>
&gt; drbd connected<br>
&gt; 1048576000 bytes (1.0 GB) copied, 13.6526 seconds, 76.8 MB/s<br>
&gt; 1048576000 bytes (1.0 GB) copied, 13.4238 seconds, 78.1 MB/s<br>
&gt; 1048576000 bytes (1.0 GB) copied, 13.2448 seconds, 79.2 MB/s<br>
&gt;<br>
&gt; drbd disconnected<br>
&gt; 1048576000 bytes (1.0 GB) copied, 4.04754 seconds, 259 MB/s<br>
&gt; 1048576000 bytes (1.0 GB) copied, 4.06758 seconds, 258 MB/s<br>
&gt; 1048576000 bytes (1.0 GB) copied, 4.06758 seconds, 258 MB/s<br>
&gt;<br>
&gt; The three (intel) gigabit PCIe cards are bonded with balance-rr, and<br>
&gt; iperf gives me:<br>
&gt;<br>
&gt; iperf 0.0-10.0 sec  2.52 GBytes  2.16 Gbits/sec (276.48MB/s)<br>
&gt;<br>
&gt; So clearly there is enough speed for both on the network and in the<br>
&gt; backend to support higher speeds. The boxes are with cross-over<br>
&gt; back-to-back no-switch.<br>
&gt;<br>
&gt; version: 8.3.0 (api:88/proto:86-89)<br>
&gt; GIT-hash: 9ba8b93e24d842f0dd3fb1f9b90e8348ddb95829 build by<br>
&gt; phil@fat-tyre, 2008-12-18 15:26:13<br>
&gt;<br>
&gt; global { usage-count yes; }<br>
&gt;        common { syncer { rate 650M; } }<br>
<br>
</div>Try actually setting this to a sensible value for 3 x 1Gbit links.<br>
eg: 300M<br>
<div class="im"><br>
&gt; resource OpenVZ_C1C2_B_LVM5 {<br>
&gt;   protocol C;<br>
&gt;   startup {degr-wfc-timeout 120;}<br>
&gt;   disk {on-io-error<br>
&gt; detach;no-disk-flushes;no-md-flushes;no-disk-drain;no-disk-barrier;}<br>
&gt;   net {<br>
&gt;     cram-hmac-alg sha1;<br>
&gt;     shared-secret &quot;OpenVZ_C1C2_B&quot;;<br>
&gt;     allow-two-primaries;<br>
&gt;     after-sb-0pri discard-zero-changes;<br>
&gt;     after-sb-1pri discard-secondary;<br>
&gt;     after-sb-2pri disconnect;<br>
&gt;     rr-conflict disconnect;<br>
&gt;     timeout 300;<br>
&gt;     connect-int 10;<br>
&gt;     ping-int 10;<br>
&gt;     max-buffers 2048;<br>
&gt;     max-epoch-size 2048;<br>
&gt;   }<br>
&gt;   syncer {rate 650M;al-extents 257;verify-alg crc32c;}<br>
<br>
</div>And here too.<br>
<br>
<br>
Mark.<br>
<font color="#888888">--<br>
Mark Watts BSc RHCE MBCS<br>
Senior Systems Engineer, Managed Services Manpower<br>
<a href="http://www.QinetiQ.com" target="_blank">www.QinetiQ.com</a><br>
QinetiQ - Delivering customer-focused solutions<br>
GPG Key: <a href="http://www.linux-corner.info/mwatts.gpg" target="_blank">http://www.linux-corner.info/mwatts.gpg</a><br>
</font></blockquote></div><br>