<p dir="ltr"><br>
On 29/02/2016 2:00 AM, &quot;翟果&quot; &lt;<a href="mailto:zhai.guo@datatom.com">zhai.guo@datatom.com</a>&gt; wrote:<br>
&gt;<br>
&gt; Hello,All:<br>
&gt;     I used to google for the solution,but get no answers.<br>
&gt;     Somebody says DRBD8.4 doesn&#39;t work with sdp?Really?<br>
As far as I can see thats not true: <a href="http://drbd.linbit.com/users-guide-8.4/s-replication-transports.html">http://drbd.linbit.com/users-guide-8.4/s-replication-transports.html</a></p>
<p dir="ltr">&gt;     I have two nodes(Centos 6.4 with kernel 2.6.32-358.el6.x86_64),and two Mellanox IB cards.Now,I want to use DRBD to sync data between two nodes.But the DRBD status is always &quot;WFconnect&quot;.<br>
&gt;<br>
&gt; [root@node1 home]# cat /proc/drbd <br>
&gt; version: 8.4.2 (api:1/proto:86-101)<br>
&gt; GIT-hash: 7ad5f850d711223713d6dcadc3dd48860321070c build by root@localhost.localdomain, 2013-09-30 16:29:29<br>
&gt;  0: cs:WFConnection ro:Secondary/Unknown ds:Inconsistent/Outdated C r----s<br>
&gt;     ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:10485404<br>
&gt;<br>
&gt;<br>
&gt; I have loaded the ib_sdp.ko and pre_loaded lib_sdp.so<br>
&gt;<br>
&gt; [root@node36 ofa_kernel-3.1]# lsmod | grep sdp<br>
&gt; ib_sdp                129946  0 <br>
&gt; rdma_cm                43237  2 rdma_ucm,ib_sdp<br>
&gt; ib_core               126865  13 rdma_ucm,ib_ucm,ib_sdp,rdma_cm,iw_cm,ib_ipoib,ib_cm,ib_uverbs,ib_umad,mlx5_ib,mlx4_ib,ib_sa,ib_mad<br>
&gt; mlx_compat             32626  18 rdma_ucm,ib_ucm,ib_sdp,rdma_cm,iw_cm,ib_ipoib,ib_cm,ib_uverbs,ib_umad,mlx5_ib,mlx5_core,mlx4_en,mlx4_ib,ib_sa,ib_mad,ib_core,ib_addr,mlx4_core<br>
&gt; ipv6                  321422  41 ib_sdp,ib_ipoib,ib_core,ib_addr,ip6t_REJECT,nf_conntrack_ipv6,nf_defrag_ipv6<br>
&gt;<br>
&gt; [root@node1 ofa_kernel-3.1]# export<br>
&gt; declare -x G_BROKEN_FILENAMES=&quot;1&quot;<br>
&gt; declare -x HISTCONTROL=&quot;ignoredups&quot;<br>
&gt; declare -x HISTSIZE=&quot;1000&quot;<br>
&gt; declare -x HOME=&quot;/root&quot;<br>
&gt; declare -x HOSTNAME=&quot;node1&quot;<br>
&gt; declare -x LANG=&quot;en_US.UTF-8&quot;<br>
&gt; declare -x LD_PRELOAD=&quot;/usr/lib64/libsdp.so&quot;<br>
&gt; declare -x LESSOPEN=&quot;|/usr/bin/lesspipe.sh %s&quot;<br>
&gt; declare -x LIBSDP_CONFIG_FILE=&quot;/etc/libsdp.conf&quot;<br>
&gt; declare -x LOGNAME=&quot;root&quot;<br>
&gt;<br>
&gt; Here is part of my configure:<br>
&gt; resource res_sdp {<br>
&gt;     meta-disk internal;<br>
&gt;     disk /dev/mapper/p1-lv1;<br>
&gt;     device /dev/drbd0;<br>
&gt;<br>
&gt;     on node1 {<br>
&gt;         address sdp *****:7789;<br>
&gt;     }<br>
&gt;     on node36 {<br>
&gt;         address sdp *****:7789;<br>
&gt;     }<br>
&gt; }<br>
&gt;<br>
&gt; And I get some log of ib_sdp.ko.<br>
&gt;<br>
&gt; Feb 28 15:24:20 node1 kernel: sdp_cma_handler:657 sdp_sock( 1465:0 58262:7789): event: RDMA_CM_EVENT_CONNECT_RESPONSE handled<br>
&gt; Feb 28 15:24:20 node1 kernel: sdp_cma_handler:671 sdp_sock( 1465:0 58262:7789): event: RDMA_CM_EVENT_CONNECT_RESPONSE done. status 0<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_cma_handler:438 sdp_sock( 1465:0 7789:0): event: RDMA_CM_EVENT_CONNECT_REQUEST<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_connect_handler:178 sdp_sock( 1465:0 7789:0): sdp_connect_handler ffff88086ee7ac00 -&gt; ffff88086ef41000<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_init_sock:1325 sdp_sock( 1465:0 7789:0): sdp_init_sock<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_init_qp:111 sdp_sock( 1465:0 7789:41102): sdp_init_qp<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_init_qp:114 sdp_sock( 1465:0 7789:41102): Max sges: 32<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_init_qp:117 sdp_sock( 1465:0 7789:41102): Setting max send sge to: 9<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_init_qp:120 sdp_sock( 1465:0 7789:41102): Setting max recv sge to: 9<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_init_qp:151 sdp_sock( 1465:0 7789:41102): sdp_init_qp done<br>
&gt; Feb 28 15:24:27 node1 kernel: _sdp_exch_state:559 sdp_sock( 1465:0 7789:41102): sdp_connect_handler:300 - set state: TCP_LISTEN -&gt; TCP_SYN_RECV 0x480<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_cma_handler:657 sdp_sock( 1465:0 7789:0): event: RDMA_CM_EVENT_CONNECT_REQUEST handled<br>
&gt; Feb 28 15:24:27 node1 kernel: sdp_cma_handler:671 sdp_sock( 1465:0 7789:0): event: RDMA_CM_EVENT_CONNECT_REQUEST done. status 0<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_cma_handler:438 sdp_sock( 1465:0 58262:7789): event: RDMA_CM_EVENT_DISCONNECTED<br>
&gt; Feb 28 15:24:28 node1 kernel: _sdp_exch_state:559 sdp_sock( 1465:0 58262:7789): sdp_set_error:591 - set state: TCP_ESTABLISHED -&gt; TCP_CLOSE 0xffffffff<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_disconnected_handler:400 sdp_sock( 1465:0 58262:7789): sdp_disconnected_handler<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_cma_handler:657 sdp_sock( 1465:0 58262:7789): event: RDMA_CM_EVENT_DISCONNECTED handled<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_reset_sk:492 sdp_sock( 1465:0 58262:7789): sdp_reset_sk<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_reset_sk:501 sdp_sock( 1465:0 58262:7789): setting state to error<br>
&gt; Feb 28 15:24:28 node1 kernel: _sdp_exch_state:559 sdp_sock( 1465:0 58262:7789): sdp_set_error:591 - set state: TCP_CLOSE -&gt; TCP_CLOSE 0xffffffff<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_cma_handler:671 sdp_sock( 1465:0 58262:7789): event: RDMA_CM_EVENT_DISCONNECTED done. status -104<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_destroy_work:1238 sdp_sock( 1615:6 58262:7789): sdp_destroy_work: refcnt 2<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_do_posts:816 sdp_sock( 1614:11 58262:7789): QP is deactivated<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_do_posts:816 sdp_sock( 1614:11 58262:7789): QP is deactivated<br>
&gt; Feb 28 15:24:28 node1 kernel: sdp_destroy_qp:242 sdp_sock( 1615:6 58262:7789): destroying qp<br>
&gt; Feb 28 15:24:28 node1 kernel: _sdp_exch_state:559 sdp_sock( 1615:0 58262:7789): sdp_destroy_work:1264 - set state: TCP_CLOSE -&gt; TCP_CLOSE 0xffffffff<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_cma_handler:438 sdp_sock( 1465:0 7789:0): event: RDMA_CM_EVENT_CONNECT_REQUEST<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_connect_handler:178 sdp_sock( 1465:0 7789:0): sdp_connect_handler ffff88086ee7ac00 -&gt; ffff88086dd43000<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_init_sock:1325 sdp_sock( 1465:0 7789:0): sdp_init_sock<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_init_qp:111 sdp_sock( 1465:0 7789:40747): sdp_init_qp<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_init_qp:114 sdp_sock( 1465:0 7789:40747): Max sges: 32<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_init_qp:117 sdp_sock( 1465:0 7789:40747): Setting max send sge to: 9<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_init_qp:120 sdp_sock( 1465:0 7789:40747): Setting max recv sge to: 9<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_init_qp:151 sdp_sock( 1465:0 7789:40747): sdp_init_qp done<br>
&gt; Feb 28 15:24:31 node1 kernel: _sdp_exch_state:559 sdp_sock( 1465:0 7789:40747): sdp_connect_handler:300 - set state: TCP_LISTEN -&gt; TCP_SYN_RECV 0x480<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_cma_handler:657 sdp_sock( 1465:0 7789:0): event: RDMA_CM_EVENT_CONNECT_REQUEST handled<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_cma_handler:671 sdp_sock( 1465:0 7789:0): event: RDMA_CM_EVENT_CONNECT_REQUEST done. status 0<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_cma_handler:438 sdp_sock( 1465:0 7789:40747): event: RDMA_CM_EVENT_ESTABLISHED<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_connected_handler:358 sdp_sock( 1465:0 7789:40747): sdp_connected_handler<br>
&gt; Feb 28 15:24:31 node1 kernel: _sdp_exch_state:559 sdp_sock( 1465:0 7789:40747): sdp_connected_handler:363 - set state: TCP_SYN_RECV -&gt; TCP_ESTABLISHED 0x8<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_set_default_moderation:361 sdp_sock( 1465:0 7789:40747): Using adaptive interrupt moderation<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_set_default_moderation:374 sdp_sock( 1465:0 7789:40747): Default coalesing params for buf size:32784 - moder_cnt:10 moder_time:16<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_connected_handler:383 sdp_sock( 1465:0 7789:0): sdp_connected_handler child connection established<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_cma_handler:657 sdp_sock( 1465:0 7789:40747): event: RDMA_CM_EVENT_ESTABLISHED handled<br>
&gt; Feb 28 15:24:31 node1 kernel: sdp_cma_handler:671 sdp_sock( 1465:0 7789:40747): event: RDMA_CM_EVENT_ESTABLISHED done. status 0<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_do_posts:816 sdp_sock( 3662:11 58262:7789): QP is deactivated<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_close:751 sdp_sock( 3662:11 58262:7789): sdp_close<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_delete_keepalive_timer:275 sdp_sock( 3662:11 58262:7789): sdp_delete_keepalive_timer<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_close:834 sdp_sock( 3662:11 58262:7789): sdp_close:834 - sock_put(SOCK_REF_ALIVE) - refcount = 1 from withing sk_common_release<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_unhash:2671 sdp_sock( 3662:11 58262:7789): sdp_unhash<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_destruct:596 sdp_sock( 3662:11 58262:7789): sdp_destruct<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_destroy_resources:537 sdp_sock( 3662:11 58262:7789): sdp_destroy_resources<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_destroy_qp:242 sdp_sock( 3662:11 58262:7789): destroying qp<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_destroy_resources:572 sdp_sock( 3662:11 58262:7789): sdp_destroy_resources done; releasing sock<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_destruct:648 sdp_sock( 3662:11 58262:7789): sdp_destruct done<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_create_ipvx_socket:2838 sdp_sock( 3662:11 -1:-1): type 1 protocol 6<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_init_sock:1325 sdp_sock( 3662:11 0:0): sdp_init_sock<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_get_port:216 sdp_sock( 3662:11 0:0): sdp_get_port: <a href="http://192.168.1.31:0">192.168.1.31:0</a><br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_ipv4_connect:964 sdp_sock( 3662:11 59104:0): sdp_ipv4_connect <a href="http://192.168.1.31:57574">192.168.1.31:57574</a> -&gt; <a href="http://192.168.1.36:7789">192.168.1.36:7789</a><br>
&gt; Feb 28 15:24:32 node1 kernel: _sdp_exch_state:559 sdp_sock( 3662:11 59104:0): sdp_connect:1003 - set state: TCP_CLOSE -&gt; TCP_SYN_SENT 0x80<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_cma_handler:438 sdp_sock( 1009:1 59104:0): event: RDMA_CM_EVENT_ADDR_RESOLVED<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_cma_handler:657 sdp_sock( 1009:1 59104:0): event: RDMA_CM_EVENT_ADDR_RESOLVED handled<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_cma_handler:671 sdp_sock( 1009:1 59104:0): event: RDMA_CM_EVENT_ADDR_RESOLVED done. status 0<br>
&gt; Feb 28 15:24:32 node1 kernel: sdp_cma_handler:438 sdp_sock( 1599:6 59104:0): event: RDMA_CM_EVENT_ROUTE_RESOLVED<br>
&gt;<br>
&gt; And what did the sdpnetstat say?<br>
&gt; [root@node1 home]# sdpnetstat -S<br>
&gt; Active Internet connections (w/o servers)<br>
&gt; Proto Recv-Q Send-Q Local Address           Foreign Address         State      <br>
&gt; sdp        0      0 node1:office-tools      node36:59756            ESTABLISHED <br>
&gt; sdp        0      0 node1:office-tools      node36:52031            ESTABLISHED <br>
&gt; sdp        0      0 node1:office-tools      node36:52658            ESTABLISHED <br>
&gt; sdp        0      0 node1:54297             node36:office-tools     ESTABLISHED <br>
&gt;<br>
&gt; Any insight would be greatly appreciated.<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; drbd-user mailing list<br>
&gt; <a href="mailto:drbd-user@lists.linbit.com">drbd-user@lists.linbit.com</a><br>
&gt; <a href="http://lists.linbit.com/mailman/listinfo/drbd-user">http://lists.linbit.com/mailman/listinfo/drbd-user</a><br>
&gt;<br>
</p>