<div dir="ltr"><div class="gmail_default" style="font-family:tahoma,sans-serif">I don&#39;t have answer for your current problem, <br>but you should use a LVM volumes as the under layer for the DRBD resources, and not a direct disk partitions.<br><br><br></div></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature"><div dir="ltr"><br><br><span style="font-family:monospace">--<br>Rabin</span></div></div></div>
<br><div class="gmail_quote">On Fri, Jan 16, 2015 at 5:37 AM, Dennis Jacobfeuerborn <span dir="ltr">&lt;<a href="mailto:dennisml@conversis.de" target="_blank">dennisml@conversis.de</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
I&#39;m running a small-ish pacemaker+drbd cluster of two virtual machines<br>
and when I try to resize it the resizing of the block device seems to<br>
work fine but when i finally try to also resize the ext4 filesystem on<br>
/dev/drbd1 I get this:<br>
<br>
[root@nfs2 ~]# resize2fs -p /dev/drbd1<br>
resize2fs 1.41.12 (17-May-2010)<br>
Filesystem at /dev/drbd1 is mounted on /srv/nfs/data; on-line resizing<br>
required<br>
old desc_blocks = 1, new_desc_blocks = 1<br>
Performing an on-line resize of /dev/drbd1 to 1048279 (4k) blocks.<br>
resize2fs: Invalid argument While trying to add group #25<br>
<br>
The backing device is a partition on a dedicated disk. The way I perform<br>
the resize is I take one node down, resize the disk on the host side,<br>
start the vm up again, use fdisk to delete the old partition and<br>
re-create it with the same start sector and the highest possible<br>
end-sector (I select the default fdisk provides), start the drbd service<br>
which  prints &quot;r0Internal drbd meta data successfully moved&quot;, stop the<br>
drbd service and finally start pacemaker.<br>
After that I set the other node on standby and perform the same<br>
operation there which gives the same output  plus it then starts<br>
synchronizing the added space.<br>
When both nodes are in sync again and pacemaker is running on both nodes<br>
again and everything looks fine I try the resize2fs command with the<br>
above result.<br>
<br>
I also did a read-only e2fsck to see what the result is:<br>
<br>
[root@nfs2 ~]# e2fsck -n /dev/drbd1<br>
e2fsck 1.41.12 (17-May-2010)<br>
Warning!  /dev/drbd1 is mounted.<br>
Warning: skipping journal recovery because doing a read-only filesystem<br>
check.<br>
/dev/drbd1 contains a file system with errors, check forced.<br>
Resize inode not valid.  Recreate? no<br>
<br>
Pass 1: Checking inodes, blocks, and sizes<br>
Inode 7, i_blocks is 6104, should be 5224.  Fix? no<br>
<br>
Pass 2: Checking directory structure<br>
Pass 3: Checking directory connectivity<br>
Pass 4: Checking reference counts<br>
Pass 5: Checking group summary information<br>
Free blocks count wrong (764832, counted=797367).<br>
Fix? no<br>
<br>
Free inodes count wrong (196593, counted=204785).<br>
Fix? no<br>
<br>
<br>
/dev/drbd1: ********** WARNING: Filesystem still has errors **********<br>
<br>
/dev/drbd1: 8207/204800 files (0.0% non-contiguous), 54368/819200 blocks<br>
<br>
I&#39;m not sure what to make of this. From what I read on the web it should<br>
be possible to accomplish this but for some reason it doesn&#39;t work.<br>
Any ideas what could be wrong?<br>
<br>
Regards,<br>
  Dennis<br>
_______________________________________________<br>
drbd-user mailing list<br>
<a href="mailto:drbd-user@lists.linbit.com">drbd-user@lists.linbit.com</a><br>
<a href="http://lists.linbit.com/mailman/listinfo/drbd-user" target="_blank">http://lists.linbit.com/mailman/listinfo/drbd-user</a><br>
</blockquote></div><br></div>