<html>
  <head>
    <meta content="text/html; charset=UTF-8" http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">Am 18.03.13 10:07, schrieb Lars
      Ellenberg:<br>
    </div>
    <blockquote cite="mid:20130318090733.GH25782@soda.linbit"
      type="cite">
      <pre wrap="">On Sun, Mar 17, 2013 at 08:19:26AM +0100, Stephan Budach wrote:
</pre>
      <blockquote type="cite">
        <pre wrap="">Hi all,

I am running DRBD 8.4.3 in a dual-pri setup. DRBD interlink is
through a 10 GbE Intel Cx520 link, which is piggy-backed between the
two Supermicro boxes. I have configured two SCST iscsi targets from
two DRBD volumes, which configured as multipathed targets on three
</pre>
      </blockquote>
      <pre wrap="">
Don't.

Simply: Don't.


Multipath expects to talk via more than one path to *the same target*.

What your setup does it have multipath talk (via one path each) to
*two different targets*, that don't know of each other,
and happen to be able to present the same data most of the time.

As iSCSI is not just about READs and WRITEs, but, especially in a
clustered setup, about reservations and other management commands,
this CAN NOT WORK, and that is NOT drbd's fault.

So just don't.

Thank you.


        Lars

</pre>
    </blockquote>
    <font face="Helvetica, Arial, sans-serif">Hi Lars,<br>
      <br>
      <br>
    </font>okay, point taken, but what about the issue with drbd
    disconnecting when both primary get under high load? Even without
    iSCSI access this shouldn't happen, should it?<br>
    <br>
    <br>
    Thanks,<br>
    Stephan<br>
    <br>
    <pre class="moz-signature" cols="72">
</pre>
  </body>
</html>