Since either network nor hard-drive is the bottle-neck, I would assume that DRBD replication contribute most to the performance bottleneck, of course, with the premise that my configuration does not put any limitation on DRBD device.<br>
<br><br clear="all">Commit yourself to constant self-improvement<br>
<br><br><div class="gmail_quote">On Fri, Oct 29, 2010 at 12:18 PM, Bart Coninckx <span dir="ltr">&lt;<a href="mailto:bart.coninckx@telenet.be">bart.coninckx@telenet.be</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<div><div></div><div class="h5">On Friday 29 October 2010 18:09:29 wang xuchen wrote:<br>
&gt; Hi all,<br>
&gt;<br>
&gt; I have encountered a DRBD write performance bottleneck issue.<br>
&gt;<br>
&gt; According to DRBD specification &quot;DRBD then reduces that throughput maximum<br>
&gt; by its additional throughput overhead, which can be expected to be less<br>
&gt; than 3 percent.&quot;<br>
&gt;<br>
&gt; My current test environment is:<br>
&gt;<br>
&gt; (1) Hard-drive:  300G SSD with 8 partitions on it, each of which has a DRBD<br>
&gt; device create on top it. I use dd utility to test its performance: 97 MB/s<br>
&gt; with 4k block size.<br>
&gt;<br>
&gt;<br>
&gt; (2) netowork: dedicated 10G ethernet card for data replication:<br>
&gt; ethtool eth2<br>
&gt; Settings for eth2:<br>
&gt; ...<br>
&gt;         Speed: 10000Mb/s<br>
&gt; ...<br>
&gt;<br>
&gt; (3) DRBD configuration: (Here is one of them).<br>
&gt;<br>
&gt;     on Server1 {<br>
&gt;         device           /dev/drbd3 minor 3;<br>
&gt;         disk             /dev/fioa3;<br>
&gt;         address          ipv4 <a href="http://192.168.202.107:7793" target="_blank">192.168.202.107:7793</a>;<br>
&gt;         meta-disk        internal;<br>
&gt;     }<br>
&gt;     on NSS_108 {<br>
&gt;         device           /dev/drbd3 minor 3;<br>
&gt;         disk             /dev/fioa3;<br>
&gt;         address          ipv4 <a href="http://192.168.202.108:7793" target="_blank">192.168.202.108:7793</a>;<br>
&gt;         meta-disk        internal;<br>
&gt;     }<br>
&gt;     net {<br>
&gt;         allow-two-primaries;<br>
&gt;         after-sb-0pri    discard-zero-changes;<br>
&gt;         after-sb-1pri    consensus;<br>
&gt;         after-sb-2pri    call-pri-lost-after-sb;<br>
&gt;         rr-conflict      disconnect;<br>
&gt;         max-buffers      4000;<br>
&gt;         max-epoch-size   16000;<br>
&gt;         unplug-watermark 4000;<br>
&gt;         sndbuf-size       2M;<br>
&gt;         data-integrity-alg crc32c;<br>
&gt;     }<br>
&gt;     syncer {<br>
&gt;         rate             300M;<br>
&gt;         csums-alg        md5;<br>
&gt;         verify-alg       crc32c;<br>
&gt;         al-extents       3800;<br>
&gt;         cpu-mask           2;<br>
&gt;     }<br>
&gt; }<br>
&gt;<br>
&gt; (4) Test result:<br>
&gt;<br>
&gt; I have a simple script which use multiple instance of dd to their<br>
&gt; corresponding DRBD device<br>
&gt;<br>
&gt; dd if=/dev/zero of=/dev/drbd1 bs=4k count=10000 oflag=direct &amp;<br>
&gt; ....<br>
&gt;<br>
&gt; For one device, I got roughly 8M/s. As the test goes, I increase the number<br>
&gt; of device to see if it helps the performance. Unfortunately, as the number<br>
&gt; of device grows, performance seems to be distributed on each of the device<br>
&gt; with the total add up to 10M/s.<br>
&gt;<br>
&gt; Can somebody give me a hint on what was going wrong?<br>
&gt;<br>
&gt; Many Thanks.<br>
&gt; Ben<br>
&gt;<br>
&gt;<br>
&gt; Commit yourself to constant self-improvement<br>
<br>
</div></div>What does a netperf speed test tell you?<br>
<font color="#888888"><br>
B.<br>
</font></blockquote></div><br>