Tino ... thank you so much for the replay ... the problem was my domU config ... I had in  there: <br>bootloader = &quot;/usr/bin/pygrub&quot;<br>disk = [ &quot;phy:drbd1,xvda,w&quot; ]<br><br>as per drbd manual ... said :<br>
<br><ul type="disc"><li><p>You are configuring a domU without the
              <code class="option">kernel</code>, <code class="option">initrd</code>, and
              <code class="option">extra</code> options, relying instead on
              <code class="option">bootloader</code> and
              <code class="option">bootloader_args</code> to use a Xen
              pseudo-bootloader, <span class="emphasis"><em>and</em></span> that
              pseudo-bootloader does not support the
              <code class="code">drbd:</code> syntax.</p></li></ul><br>the correct dumU config:<br><br>name = &quot;genxrestore&quot;<br>uuid = &quot;365ed881-6e29-43d1-6529-2f702e8daefa&quot;<br>memory = &quot;512&quot;<br>maxmem = 512<br>
kernel = &quot;/home/domukernel/vmlinuz-2.6.18-128.1.14.el5xen_x64&quot;<br>ramdisk = &quot;/home/domukernel/initrd-2.6.18-128.1.14.el5xen_64.img&quot;<br>root = &quot;/dev/xvda3&quot;<br>extra = &quot;&quot;<br>disk = [ &quot;drbd:genxrestore,xvda,w&quot; ]<br>
vif = [ &quot;mac=00:16:3e:20:6c:a2,bridge=xenbr0&quot; ]<br>vfb = [  ]<br>vcpus=1<br>on_poweroff = &quot;destroy&quot;<br>on_reboot = &quot;restart&quot;<br>on_crash = &quot;restart&quot;<br><br>now I have to move on and create a fail over :)<br>
<br>xen0                     xen1  <br><br>domU1                 domU3<br>domU2                 domU4<br><br>now if xen1 fail then I want domU3 and domU4 to start in xen0<br><br>Thank you <br><br>Gabe<br><br><br><br><div class="gmail_quote">
On Tue, Jun 23, 2009 at 6:00 AM,  <span dir="ltr">&lt;<a href="mailto:drbd-user-request@lists.linbit.com">drbd-user-request@lists.linbit.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Send drbd-user mailing list submissions to<br>
        <a href="mailto:drbd-user@lists.linbit.com">drbd-user@lists.linbit.com</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://lists.linbit.com/mailman/listinfo/drbd-user" target="_blank">http://lists.linbit.com/mailman/listinfo/drbd-user</a><br>
or, via email, send a message with subject or body &#39;help&#39; to<br>
        <a href="mailto:drbd-user-request@lists.linbit.com">drbd-user-request@lists.linbit.com</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:drbd-user-owner@lists.linbit.com">drbd-user-owner@lists.linbit.com</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than &quot;Re: Contents of drbd-user digest...&quot;<br>
<br>
<br>
Today&#39;s Topics:<br>
<br>
   1. Re: Xen LVM DRBD (Maros Timko)<br>
   2. DRBD 8.3.1 linux 2.6.27.25-highmem Crash (Tim Evers)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Tue, 23 Jun 2009 11:39:31 +0200<br>
From: Maros Timko &lt;<a href="mailto:timkom@gmail.com">timkom@gmail.com</a>&gt;<br>
Subject: Re: [DRBD-user] Xen LVM DRBD<br>
To: <a href="mailto:drbd-user@lists.linbit.com">drbd-user@lists.linbit.com</a><br>
Message-ID: &lt;20090623093931.GB9124@soda.linbit&gt;<br>
Content-Type: text/plain; charset=us-ascii<br>
<br>
Hm,<br>
<br>
this looks like you have desperately tried a lot of things together in one<br>
big step. Have you already tried to ask old good friend google, or chek the<br>
site:<br>
<a href="http://www.drbd.org/users-guide/s-xen-configure-domu.html" target="_blank">http://www.drbd.org/users-guide/s-xen-configure-domu.html</a><br>
<br>
The issue I can see in your setup is that you don&#39;t have equal xen DomU<br>
files on both machines (xvda1 VS xvda). May be you could first try live<br>
migration on a shared storage. It could be easier at the beginning.<br>
The question is if you really need live migration when you want to create<br>
higly available system. Live migration can be handy for maintanance tasks,<br>
but will not work on failovers.<br>
<br>
Tino<br>
<br>
<br>
[edit by list admin:<br>
trimmed 700+ quoted lines without comment.<br>
trimmed the double amount in the html of this multipart message.<br>
please trim your posts, and your replies. ]<br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Mon, 22 Jun 2009 22:34:06 +0200<br>
From: Tim Evers &lt;<a href="mailto:it@niemail.de">it@niemail.de</a>&gt;<br>
Subject: [DRBD-user] DRBD 8.3.1 linux 2.6.27.25-highmem Crash<br>
To: <a href="mailto:drbd-user@lists.linbit.com">drbd-user@lists.linbit.com</a><br>
Message-ID: &lt;<a href="mailto:4A3FEABE.3080100@niemail.de">4A3FEABE.3080100@niemail.de</a>&gt;<br>
Content-Type: text/plain; charset=ISO-8859-15<br>
<br>
Hi,<br>
<br>
I have a iSCSI SAN server using drbd in the backend. This results in atm<br>
32 logical volumes each with drbd on top and exported via iscsi.<br>
<br>
During normal operation everything is fine. But if I fire up a new drbd<br>
device (drbdadm up res or drbdadm adjust res) sometimes (about 1 out of<br>
ten times) the machine crashes with kernel panic.<br>
<br>
Unfortunately I have no trace of the crashes. It seems to be more likely<br>
under heavy IO activity.<br>
<br>
A hint anyone?<br>
<br>
Config:<br>
<br>
Intel L5420<br>
8 GIG Ram<br>
3 3ware 9690SA<br>
16 WDC FYPS 1TB<br>
4 WDC Velociraptor HLFS150<br>
combined into 5 RAID10 (2+2+2+2+0.6 TB)<br>
Kernel 2.6.27.25-highmem<br>
DRBD 8.3.1<br>
Enterprise ISCSI target 4.0.17<br>
on Debian Lenny<br>
<br>
Regards<br>
<br>
Tim Evers<br>
<br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
drbd-user mailing list<br>
<a href="mailto:drbd-user@lists.linbit.com">drbd-user@lists.linbit.com</a><br>
<a href="http://lists.linbit.com/mailman/listinfo/drbd-user" target="_blank">http://lists.linbit.com/mailman/listinfo/drbd-user</a><br>
<br>
<br>
End of drbd-user Digest, Vol 59, Issue 34<br>
*****************************************<br>
</blockquote></div><br>