<div dir="ltr">Hello,<div><br></div><div>Sorry if this is not the right ML to report this, but thought it might good to report it just in case that you are not already aware of it.</div><div><br></div><div>I&#39;m using a 3 node Proxmox cluster backed by DRBD9 over ZFS. </div><div>All seem to work pretty well, apart from an issue with LXC containers.</div><div><br></div><div>The facts:</div><div>====================</div><div><div>cat /proc/drbd</div><div>version: 9.0.12-1 (api:2/proto:86-112)</div><div>GIT-hash: 7eb4aef4abbfba8ebb1afbcc30574df74db0063e build by root@pve2, 2018-03-14 08:23:43</div><div>Transports (api:16): tcp (9.0.12-1)</div><div><br></div><div>drbdmanage --version</div><div>drbdmanage 0.99.16; GIT-hash: a51c4e7858da69c4f56fc5b945c0ef586aae318b</div></div><div><br></div><div>drbdmanage-proxmox        2.1-1  <br></div><div><br></div><div>drbd-utils                9.3.0-1 <br></div><div><br></div><div><div>pveversion</div><div>pve-manager/5.1-46/ae8241d4 (running kernel: 4.13.13-6-pve</div></div><div>======================</div><div><br></div><div><br></div><div>The issue:</div><div>====================</div><div><br></div><div>When creating a new LXC container (or restoring from a LXC backup) on a *non-leader* DRBD9 node, the process is failing with the following error:</div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>pong<br>Operation completed successfully<br>Operation completed successfully<br>pong<br>Operation completed successfully<br>Operation completed successfully<br>pong<br>Operation completed successfully<br>pong<br>Operation completed successfully<br>Operation completed successfully<br>Waiting for server: ..<br>mke2fs 1.43.4 (31-Jan-2017)<br>Discarding device blocks:    4096/3932160                528384/3932160               1052672/3932160               1576960/3932160               2101248/3932160               2625536/3932160               3149824/3932160               3674112/3932160                                             done                            <br>Creating filesystem with 3932160 4k blocks and 983040 inodes<br>Filesystem UUID: e2255445-4aca-4bfc-b130-c0f2d1324b17<br>Superblock backups stored on blocks: <br><span style="white-space:pre">        </span>32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208<br>Allocating group tables:   0/120                     done                            <br>Writing inode tables:   0/120                     done                            <br>Creating journal (16384 blocks): done<br>Multiple mount protection is enabled with update interval 5 seconds.<br>Writing superblocks and filesystem accounting information:   0/120                     done<br>pong<br>Operation completed successfully<br>Operation completed successfully<br>pong<br>Operation completed successfully<br>Operation completed successfully<br>pong<br>Operation completed successfully<br>pong<br>Operation completed successfully<br>Operation completed successfully<br>Waiting for server: .<br>mke2fs 1.43.4 (31-Jan-2017)<br>The file /dev/drbd/by-res/vm-100-disk-2/0 does not exist and no size was specified.<br>pong<br>Operation completed successfully<br>Operation completed successfully<br>TASK ERROR: command &#39;mkfs.ext4 -O mmp -E &#39;root_owner=0:0&#39; /dev/drbd/by-res/vm-100-disk-2/0&#39; failed: exit code 1</blockquote><div><br></div><div>When executing the same task on a leader node, everything works perfectly.</div><div><br></div><div>I remember this same issue when creating qemu vms in the past, but eventually it was fixed. Would it be possible to do the same for LXCs please?</div><div><br></div><div>Regards,</div><div>Yannis </div></div>