<div dir="ltr"><div dir="ltr"><div>Hi,</div><div><br></div><div>  Sorry, all solved addind lvm filter &quot;r|/dev/drbd.*|&quot;</div><div><br></div><div>  Now with LVM I can so backups, restores and live migrate.</div><div><br></div><div>  Now with LVMThin I can make snapshots too, rollback seems not implemented yet<br></div><div><br></div><div>  Could be this step (add lvm filter) added to proxmox-linstor doc?<br></div><div><br></div><div>Thanks,<br></div></div></div><br><div class="gmail_quote"><div dir="ltr">El sáb., 8 dic. 2018 a las 22:49, AlessanT77 (&lt;<a href="mailto:alessant77@gmail.com">alessant77@gmail.com</a>&gt;) escribió:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div>Hi,</div><div><br></div><div>  Using LvmDriver give error restoring backup.</div><div></div><div>  With LvmThinDriver works.</div><div><br></div><div><span style="font-family:monospace,monospace">╭───────────────────────────────────────────────────────╮<br>┊ Node ┊ NodeType  ┊ Addresses                 ┊ State  ┊<br>╞┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄╡<br>┊ pve1 ┊ SATELLITE ┊ <a href="http://10.128.1.221:3366" target="_blank">10.128.1.221:3366</a> (PLAIN) ┊ Online ┊<br>┊ pve2 ┊ SATELLITE ┊ <a href="http://10.128.1.222:3366" target="_blank">10.128.1.222:3366</a> (PLAIN) ┊ Online ┊<br>╰───────────────────────────────────────────────────────╯<br>╭──────────────────────────────────────────────────────────────────────────────────────────────╮<br>┊ StoragePool ┊ Node ┊ Driver    ┊ PoolName ┊ FreeCapacity ┊ TotalCapacity ┊ SupportsSnapshots ┊<br>╞┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄╡<br>┊ drbdpool    ┊ pve1 ┊ LvmDriver ┊ vg_hdd   ┊   190.99 GiB ┊    200.00 GiB ┊ false             ┊<br>┊ drbdpool    ┊ pve2 ┊ LvmDriver ┊ vg_hdd   ┊   190.99 GiB ┊    200.00 GiB ┊ false             ┊<br>╰──────────────────────────────────────────────────────────────────────────────────────────────╯<br>╭─────────────────────────────────────────────────╮<br>┊ ResourceName  ┊ Node ┊ Port ┊ Usage  ┊    State ┊<br>╞┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄┄╡<br>┊ vm-100-disk-1 ┊ pve1 ┊ 7000 ┊ Unused ┊ UpToDate ┊<br>┊ vm-100-disk-1 ┊ pve2 ┊ 7000 ┊ Unused ┊ UpToDate ┊<br>┊ vm-200-disk-1 ┊ pve1 ┊ 7001 ┊        ┊ DELETING ┊<br>┊ vm-200-disk-1 ┊ pve2 ┊ 7001 ┊        ┊ DELETING ┊<br>╰─────────────────────────────────────────────────╯<br><br></span></div><div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Virtual Environment 5.3-5<br>Storage &#39;nfs&#39; on node &#39;pve1&#39;<br>Search:<br>Logs<br>()<br>restore vma archive: lzop -d -c /mnt/pve/nfs/dump/vzdump-qemu-4002-2018_11_24-00_27_10.vma.lzo | vma extract -v -r /var/tmp/vzdumptmp13141.fifo - /var/tmp/vzdumptmp13141<br>CFG: size: 391 name: qemu-server.conf<br>DEV: dev_id=1 size: 8589934592 devname: drive-scsi0<br>CTIME: Sat Nov 24 00:27:11 2018<br>SUCCESS:<br>Description:<br>    New resource definition &#39;vm-200-disk-1&#39; created.<br>Details:<br>    Resource definition &#39;vm-200-disk-1&#39; UUID is: bcf9a7f3-d617-4280-919b-083178d0b184<br>SUCCESS:<br>Description:<br>    Resource definition &#39;vm-200-disk-1&#39; modified.<br>Details:<br>    Resource definition &#39;vm-200-disk-1&#39; UUID is: bcf9a7f3-d617-4280-919b-083178d0b184<br>SUCCESS:<br>    New volume definition with number &#39;0&#39; of resource definition &#39;vm-200-disk-1&#39; created.<br>SUCCESS:<br>Description:<br>    Resource &#39;vm-200-disk-1&#39; successfully autoplaced on 2 nodes<br>Details:<br>    Used storage pool: &#39;drbdpool&#39;<br>    Used nodes: &#39;pve1&#39;, &#39;pve2&#39;<br>SUCCESS:<br>    Created resource &#39;vm-200-disk-1&#39; on &#39;pve2&#39;<br>SUCCESS:<br>    Created resource &#39;vm-200-disk-1&#39; on &#39;pve1&#39;<br>SUCCESS:<br>Description:<br>    Resource &#39;vm-200-disk-1&#39; on &#39;pve2&#39; ready<br>Details:<br>    Auto-placing resource: vm-200-disk-1<br>SUCCESS:<br>Description:<br>    Resource &#39;vm-200-disk-1&#39; on &#39;pve1&#39; ready<br>Details:<br>    Auto-placing resource: vm-200-disk-1<br>new volume ID is &#39;drbdstorage:vm-200-disk-1&#39;<br>map &#39;drive-scsi0&#39; to &#39;/dev/drbd/by-res/vm-200-disk-1/0&#39; (write zeros = 1)<br><br><span style="color:rgb(255,0,0)">** (process:13144): ERROR **: can&#39;t open file /dev/drbd/by-res/vm-200-disk-1/0 - Could not open &#39;/dev/drbd/by-res/vm-200-disk-1/0&#39;: Read-only file system</span><br>/bin/bash: line 1: 13143 Broken pipe             lzop -d -c /mnt/pve/nfs/dump/vzdump-qemu-4002-2018_11_24-00_27_10.vma.lzo<br>     13144 Trace/breakpoint trap   | vma extract -v -r /var/tmp/vzdumptmp13141.fifo - /var/tmp/vzdumptmp13141<br>SUCCESS:<br>Description:<br>    Resource definition &#39;vm-200-disk-1&#39; marked for deletion.<br>Details:<br>    Resource definition &#39;vm-200-disk-1&#39; UUID is: bcf9a7f3-d617-4280-919b-083178d0b184<br>SUCCESS:<br>    Resource &#39;vm-200-disk-1&#39; on &#39;pve2&#39; deleted<br>SUCCESS:<br>    Resource &#39;vm-200-disk-1&#39; on &#39;pve1&#39; deleted<br>SUCCESS:<br>Description:<br>    Resource definition &#39;vm-200-disk-1&#39; deleted.<br>Details:<br>    Resource definition &#39;vm-200-disk-1&#39; UUID was: bcf9a7f3-d617-4280-919b-083178d0b184<br>temporary volume &#39;drbdstorage:vm-200-disk-1&#39; sucessfuly removed<br>no lock found trying to remove &#39;create&#39;  lock<br>TASK ERROR: command &#39;set -o pipefail &amp;&amp; lzop -d -c /mnt/pve/nfs/dump/vzdump-qemu-4002-2018_11_24-00_27_10.vma.lzo | vma extract -v -r /var/tmp/vzdumptmp13141.fifo - /var/tmp/vzdumptmp13141&#39; failed: exit code 133<br></blockquote><br></div></div></div></div></div></div>
</blockquote></div>