[ND provider] improved latency of ND provider by using INLINE send
authorleonidk <leonidk@ad392aa1-c5ef-ae45-8dd8-e69d62a5ef86>
Thu, 6 Aug 2009 17:13:25 +0000 (17:13 +0000)
committerleonidk <leonidk@ad392aa1-c5ef-ae45-8dd8-e69d62a5ef86>
Thu, 6 Aug 2009 17:13:25 +0000 (17:13 +0000)
commit663fe25e95889f0585d8e9996fbcbab6c954d84a
tree9d85d5c939911dff9d5ece20468d92649771ccd0
parentfa4ca7479e2799a31302c652ae9aa875dae659e5
[ND provider] improved latency of ND provider by using INLINE send

This patch adds usage of INLINE DATA facility of Mellanox HCAs for improving latency of ND provider.

Here are the ideas of the patch:
    - by default, ND provider will create QP with inline data of 160 bytes;
    (this can enlarge user's QP size)
    - one can change this default by defining environment variable IBNDPROV_MAX_INLINE_SIZE;
    - an ND application, while creating QP, can define the necessary INLINE DATA size; this value takes precedence over the default one.

git-svn-id: svn://openib.tc.cornell.edu/gen1/trunk@2333 ad392aa1-c5ef-ae45-8dd8-e69d62a5ef86
ulp/nd/user/NdEndpoint.cpp
ulp/nd/user/NdEndpoint.h
ulp/nd/user/NdProv.cpp