<HTML dir=ltr><HEAD><TITLE>Re: [DRBD-user] Weird DRBD performance problem</TITLE>
<META content="text/html; charset=unicode" http-equiv=Content-Type>
<META name=GENERATOR content="MSHTML 9.00.8112.16440"></HEAD>
<BODY>
<DIV dir=ltr id=idOWAReplyText22534>
<DIV dir=ltr><FONT color=#000000 size=2 face="Courier New">Hi Lars and Everyone else,</FONT></DIV>
<DIV dir=ltr><FONT size=2 face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT size=2 face="Courier New">I put the no-disk-drain in the hope that it might help me find the problem.&nbsp; I leave it out on production.</FONT></DIV>
<DIV dir=ltr><FONT size=2 face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT size=2 face="Courier New">The run with the various dd's with different commands was interesting:</FONT></DIV>
<DIV dir=ltr><FONT size=2 face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">san1:/dev # dd if=/dev/zero of=/dev/sdb2 bs=1M count=32768 oflag=direct<BR>32768+0 records in<BR>32768+0 records out<BR>34359738368 bytes (34 GB) copied, 38.9945 s, 881 MB/s<BR>san1:/dev # dd if=/dev/zero of=/dev/sdb2 bs=1M count=32768 oflag=dsync<BR>32768+0 records in<BR>32768+0 records out<BR>34359738368 bytes (34 GB) copied, 88.8506 s, 387 MB/s<BR>san1:/dev # dd if=/dev/zero of=/dev/sdb2 bs=1M count=32768 conv=fsync<BR>32768+0 records in<BR>32768+0 records out<BR>34359738368 bytes (34 GB) copied, 72.9384 s, 471 MB/s</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">Not sure why direct would be so much faster than the others.&nbsp; Something to look into.&nbsp; Anyone have some thoughts on that one?</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">Since I'm trying to figure out what is going on I decided to put the DRBD metadata on a RAM disk and see what happens and did two sets of runs in the same format as the above.</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">Here are the runs with the metadata on the regular RAID system:</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">san1:/dev/drbd/by-res # dd if=/dev/zero of=r0 bs=1M count=32768 oflag=direct<BR>32768+0 records in<BR>32768+0 records out<BR>34359738368 bytes (34 GB) copied, 53.1025 s, 647 MB/s<BR>san1:/dev/drbd/by-res # dd if=/dev/zero of=r0 bs=1M count=32768 oflag=dsync<BR>32768+0 records in<BR>32768+0 records out<BR>34359738368 bytes (34 GB) copied, 147.199 s, 233 MB/s<BR>san1:/dev/drbd/by-res # dd if=/dev/zero of=r0 bs=1M count=32768 conv=fsync<BR>32768+0 records in<BR>32768+0 records out<BR>34359738368 bytes (34 GB) copied, 156.27 s, 220 MB/s</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">Here are the runs with the metadata on the RAM disk:</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">san1:/dev/drbd/by-res # dd if=/dev/zero of=r0 bs=1M count=32768 oflag=direct<BR>32768+0 records in<BR>32768+0 records out<BR>34359738368 bytes (34 GB) copied, 53.6152 s, 641 MB/s<BR>san1:/dev/drbd/by-res # dd if=/dev/zero of=r0 bs=1M count=32768 oflag=dsync<BR>32768+0 records in<BR>32768+0 records out<BR>34359738368 bytes (34 GB) copied, 129.425 s, 265 MB/s<BR>san1:/dev/drbd/by-res # dd if=/dev/zero of=r0 bs=1M count=32768 conv=fsync<BR>32768+0 records in<BR>32768+0 records out<BR>34359738368 bytes (34 GB) copied, 148.076 s, 232 MB/s</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">I did run the tests about 10 times each and they came out to about the same numbers (+/- 15MB/s).&nbsp; Basically, the difference between the metadata being on the disk and something extremely fast doesn't make a difference in this setup.&nbsp; The odd thing is the DRBD overhead is just really high on this system for some reason and I can't seem to find the answer.</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">The firmware between the raid controllers isn't the same.&nbsp; The big difference is that these servers are using the dell H700 card and the other server are using the LSI Megaraid.&nbsp; Both cards are really made by LSI but Dell has its own firmware but they all use the same driver.</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">I also don't understand why the transactions per second as seem by iostat is so high on the drbd device but when it gets to the backing store the transactions drop.&nbsp; Also, when I just run the dd command on the backing store the transactions per second are not high and look just like they do in the drbd test run for the backing device.&nbsp; For some reason the drbd device shows a huge number of transactions.</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">Anymore have some more thoughts about where the overhead hit might be coming from?</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New">thanks</FONT></DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face="Courier New"></FONT>&nbsp;</DIV></DIV>
<DIV dir=ltr><BR><FONT face="Courier New">
<HR tabIndex=-1>
</FONT><FONT face="Courier New"><FONT size=2><B>From:</B> drbd-user-bounces@lists.linbit.com on behalf of Lars Ellenberg<BR><B>Sent:</B> Thu 2/2/2012 7:11 AM<BR><B>To:</B> drbd-user@lists.linbit.com<BR><B>Subject:</B> Re: [DRBD-user] Weird DRBD performance problem<BR></FONT><BR></FONT></DIV>
<DIV>
<P><FONT size=2><FONT face="Courier New">On Wed, Feb 01, 2012 at 06:04:18PM -0700, Roof, Morey R. wrote:<BR>&gt; Hi Everyone,<BR>&gt;&nbsp;<BR>&gt; I have a DRBD performance problem that has got me completely confused.<BR>&gt; I hoping that someone can help with this one as my other servers that<BR>&gt; use the same type of RAID cards and DRBD don't have this problem.<BR>&gt;&nbsp;<BR>&gt; For the hardware, I have two Dell R515 servers with the H700 card,<BR>&gt; basically an LSI Megaraid based card, and running SLES 11 SP1.&nbsp; This<BR>&gt; problem shows up on drbd 8.3.11, 8.3.12, and 8.4.1 but I haven't<BR>&gt; tested other versions.<BR>&gt;&nbsp;<BR>&gt; here is the simple config I made based on the servers that don't have<BR>&gt; any issues:<BR>&gt;&nbsp;<BR>&gt; global {<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; # We don't want to be bother by the usage count numbers<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; usage-count no;<BR>&gt; }<BR>&gt; common {<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; protocol C;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; net {<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; cram-hmac-alg&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; md5;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; shared-secret&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; "P4ss";<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<BR>&gt; }<BR>&gt; resource r0 {<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; on san1 {<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; device&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; /dev/drbd0;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; disk&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; /dev/disk/by-id/scsi-36782bcb0698b6300167badae13f2884d-part2;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; address&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 10.60.60.1:63000;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; flexible-meta-disk&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; /dev/disk/by-id/scsi-36782bcb0698b6300167badae13f2884d-part1;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; on san2 {<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; device&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; /dev/drbd0;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; disk&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; /dev/disk/by-id/scsi-36782bcb0698b6e00167bb1d107a77a47-part2;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; address&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 10.60.60.2:63000;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; flexible-meta-disk&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; /dev/disk/by-id/scsi-36782bcb0698b6e00167bb1d107a77a47-part1;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; startup {<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; wfc-timeout&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 5;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; syncer {<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; rate&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 50M;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; cpu-mask&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; disk {<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; on-io-error&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; detach;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; no-disk-barrier;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; no-disk-flushes;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; no-disk-drain;<BR><BR><BR>Will people please STOP using no-disk-drain.&nbsp; On most hardware, it does<BR>not provide measurable performance gain, but may risk data integrity<BR>because of potential violation of write-after-write dependencies!<BR><BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; no-md-flushes;<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<BR>&gt; }<BR>&gt;&nbsp;<BR>&gt; version: 8.3.11 (api:88/proto:86-96)<BR>&gt; GIT-hash: 0de839cee13a4160eed6037c4bddd066645e23c5 build by phil@fat-tyre &lt;</FONT><A href="mailto:phil@fat-tyre"><FONT face="Courier New">mailto:phil@fat-tyre</FONT></A><FONT face="Courier New">&gt; , 2011-06-29 11:37:11<BR>&gt;&nbsp; 0: cs:WFConnection ro:Primary/Unknown ds:UpToDate/DUnknown C r----s<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp; ns:0 nr:0 dw:8501248 dr:551 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:n oos:3397375600<BR>&gt;&nbsp;<BR>&gt; So, when I'm running just with one server and no replication the performance hit with DRBD is huge.&nbsp; The backing device shows a throughput of:<BR>&gt; ----<BR>&gt; san1:~ # dd if=/dev/zero of=/dev/disk/by-id/scsi-36782bcb0698b6300167badae13f2884d-part2 bs=1M count=16384<BR><BR>Hope you are not writing to the page cache only?<BR>add oflag=direct, or oflag=dsync, or conv=fsync combinations thereof.<BR><BR>&gt; san1:~ # dd if=/dev/zero of=/dev/drbd/by-res/r0 bs=1M count=16384<BR>&gt; 16384+0 records in<BR>&gt; 16384+0 records out<BR>&gt; 17179869184 bytes (17 GB) copied, 93.457 s, 184 MB/s<BR><BR>See if moving the drbd meta data to raid 1 helps.<BR><BR>&gt; -------<BR>&gt;&nbsp;<BR>&gt; using iostat I see part of the problem:<BR>&gt;&nbsp;<BR>&gt; avg-cpu:&nbsp; %user&nbsp;&nbsp; %nice %system %iowait&nbsp; %steal&nbsp;&nbsp; %idle<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.08&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp; 16.76&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp; 83.17<BR>&gt; Device:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; tps&nbsp;&nbsp;&nbsp; MB_read/s&nbsp;&nbsp;&nbsp; MB_wrtn/s&nbsp;&nbsp;&nbsp; MB_read&nbsp;&nbsp;&nbsp; MB_wrtn<BR>&gt; sda&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0<BR>&gt; sdb&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 20565.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 360.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 719<BR>&gt; drbd0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 737449.50&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 360.08&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 720<BR>&gt; avg-cpu:&nbsp; %user&nbsp;&nbsp; %nice %system %iowait&nbsp; %steal&nbsp;&nbsp; %idle<BR>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.07&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp; 28.87&nbsp;&nbsp;&nbsp; 1.37&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp; 69.69<BR>&gt; Device:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; tps&nbsp;&nbsp;&nbsp; MB_read/s&nbsp;&nbsp;&nbsp; MB_wrtn/s&nbsp;&nbsp;&nbsp; MB_read&nbsp;&nbsp;&nbsp; MB_wrtn<BR>&gt; sda&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1.50&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.01&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0<BR>&gt; sdb&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 57859.50&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 177.22&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 354<BR>&gt; drbd0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 362787.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 177.14&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 354<BR>&gt;&nbsp;<BR>&gt; the drbd device is showing a TPS about 10x - 20x of the backing store.<BR>&gt; When I do this on my other servers I don't see anything like it.&nbsp; The<BR>&gt; working servers are also running the same kernel and drbd versions.<BR><BR>The rest of the IO stack is the same as well, including driver,<BR>firmware, settings, health of controller cache battery?<BR>Not implying anything, that's just something to check...<BR><BR>--<BR>: Lars Ellenberg<BR>: LINBIT | Your Way to High Availability<BR>: DRBD/HA support and consulting </FONT><A href="http://www.linbit.com/"><FONT face="Courier New">http://www.linbit.com</FONT></A><BR><FONT face="Courier New">_______________________________________________<BR>drbd-user mailing list<BR>drbd-user@lists.linbit.com<BR></FONT><A href="http://lists.linbit.com/mailman/listinfo/drbd-user"><FONT face="Courier New">http://lists.linbit.com/mailman/listinfo/drbd-user</FONT></A><BR></FONT></P></DIV></BODY></HTML>