<div dir="ltr"><div><div>Hi,<br></div>When i degrade kernel version it work with me but with stonith_admin-fence-peer.sh rather than crm-fence-peer.sh as fence-peer :) .<br></div>Thank you Digimer ,you guided me when you said it may be a bug in drbd .Really thank for you.<br>
<br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Apr 3, 2014 at 12:40 AM, Digimer <span dir="ltr">&lt;<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="">On 02/04/14 06:36 PM, khaled atteya wrote:<br>
</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi<div class=""><br>
Yes, when i crashed system , it fenced &amp; rebooted.<br>
<br>
I am using fedora 20.<br>
<br>
corosync-2.3.3-1.fc20.x86_64<br>
pacemaker-1.1.11-1.fc20.x86_64<br>
drbd-8.4.3-2.fc20.x86_64<br>
</div></blockquote>
<br>
Ok, so this out of memory error is likely a bug in DRBD then.<br>
<br>
I am curious about this:<br>
<br>
====<br>
Apr  2 13:28:15 n1 corosync[687]: [TOTEM ] Retransmit List: 15f<br>
Apr  2 13:28:16 n1 corosync[687]: [TOTEM ] Marking ringid 1 interface 173.254.237.115 FAULTY<br>
====<br>
<br>
It looks like corosync also failed when DRBD failed. I would be curious to see the logs below it. Is it possible that the other node&#39;s access to the failed node&#39;s IPMI was also lost?<div class="HOEnZb"><div class="h5">
<br>
<br>
-- <br>
Digimer<br>
Papers and Projects: <a href="https://alteeve.ca/w/" target="_blank">https://alteeve.ca/w/</a><br>
What if the cure for cancer is trapped in the mind of a person without access to education?<br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br><div dir="ltr"><div style="text-align:center"><div style="text-align:left">KHALED MOHAMMED ATTEYA</div><div style="text-align:left">System Engineer</div><div style="text-align:left">
<br></div></div></div>
</div>