<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 12pt;
font-family:Calibri
}
--></style></head>
<body class='hmmessage'><div dir='ltr'>Hi all,<br>I have a CMAN+Pacemaker cluster on CentOS 6.5 with DRBD primary/secondary resources backing some KVM VirtualDomain resources.<br><br>Recently I manually disabled all KVM resources (while leaving the DRBD ones untouched) then put both nodes in standby to apply some updates (nothing that could actually touch KVM/DRBD, but I took this course of actions for safety) and finally rebooted both nodes too.<br><br>After bootup I reverted with "pcs cluster unstandby --all" and re-enabled each KVM resource.<br>Everything came up correctly but I now have these recurring lines in my corosync.log (basically rc=8 for each and every DRBD resource):<br><br>drbd(DatabaseVMDisk)[19424]:&nbsp;&nbsp;&nbsp; 2014/07/16_00:24:04 DEBUG: database_vm: Exit code 0<br>drbd(ShareVMDisk)[19426]:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 2014/07/16_00:24:04 DEBUG: share_vm: Exit code 0<br>drbd(ShareDataDisk)[19425]:&nbsp;&nbsp;&nbsp;&nbsp; 2014/07/16_00:24:04 DEBUG: share_data: Exit code 0<br>drbd(DatabaseVMDisk)[19424]:&nbsp;&nbsp;&nbsp; 2014/07/16_00:24:04 DEBUG: database_vm: Command output:<br>drbd(ShareVMDisk)[19426]:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 2014/07/16_00:24:04 DEBUG: share_vm: Command output:<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: operation_finished:&nbsp; DatabaseVMDisk_monitor_31000:19424 - exited with rc=8<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: operation_finished:&nbsp; DatabaseVMDisk_monitor_31000:19424:stderr [ -- empty -- ]<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: operation_finished:&nbsp; DatabaseVMDisk_monitor_31000:19424:stdout [&nbsp; ]<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: log_finished:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; finished - rsc:DatabaseVMDisk action:monitor call_id:254 pid:19424 exit-code:8 exec-time:0ms queue-time:0ms<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: operation_finished:&nbsp; ShareVMDisk_monitor_31000:19426 - exited with rc=8<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: operation_finished:&nbsp; ShareVMDisk_monitor_31000:19426:stderr [ -- empty -- ]<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: operation_finished:&nbsp; ShareVMDisk_monitor_31000:19426:stdout [&nbsp; ]<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: log_finished:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; finished - rsc:ShareVMDisk action:monitor call_id:252 pid:19426 exit-code:8 exec-time:0ms queue-time:0ms<br>drbd(ShareDataDisk)[19425]:&nbsp;&nbsp;&nbsp;&nbsp; 2014/07/16_00:24:04 DEBUG: share_data: Command output:<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: operation_finished:&nbsp; ShareDataDisk_monitor_31000:19425 - exited with rc=8<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: operation_finished:&nbsp; ShareDataDisk_monitor_31000:19425:stderr [ -- empty -- ]<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: operation_finished:&nbsp; ShareDataDisk_monitor_31000:19425:stdout [&nbsp; ]<br>Jul 16 00:24:04 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: log_finished:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; finished - rsc:ShareDataDisk action:monitor call_id:257 pid:19425 exit-code:8 exec-time:0ms queue-time:0ms<br>Jul 16 00:24:19 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: recurring_action_timer:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Scheduling another invokation of FirewallVMDisk_monitor_29000<br>Jul 16 00:24:19 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: recurring_action_timer:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Scheduling another invokation of DCVMDisk_monitor_29000<br>Jul 16 00:24:19 [6428] cluster1.verolengo.privatelan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; lrmd:&nbsp;&nbsp;&nbsp; debug: recurring_action_timer:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Scheduling another invokation of ApplicationVMDisk_monitor_29000<br>drbd(DCVMDisk)[19783]:&nbsp; 2014/07/16_00:24:19 DEBUG: dc_vm: Calling /usr/sbin/crm_master -Q -l reboot -v 10000<br>drbd(ApplicationVMDisk)[19784]: 2014/07/16_00:24:19 DEBUG: application_vm: Calling /usr/sbin/crm_master -Q -l reboot -v 10000<br>drbd(FirewallVMDisk)[19782]:&nbsp;&nbsp;&nbsp; 2014/07/16_00:24:19 DEBUG: firewall_vm: Calling /usr/sbin/crm_master -Q -l reboot -v 10000<br><br>From some searching it seems to imply that DRBD came up outside of RA control, so I wonder how I could avoid this in the future and how I could clean it up now.<br><br>Many thanks in advance.<br><br>Regards,<br>Giuseppe Ragusa<br>                                               </div></body>
</html>