649533ab13ebba68f76c02655a97d026de1f58db
[people/sha0/gpxe.git] / src / net / infiniband / ib_gma.c
1 /*
2  * Copyright (C) 2009 Michael Brown <mbrown@fensystems.co.uk>.
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License as
6  * published by the Free Software Foundation; either version 2 of the
7  * License, or any later version.
8  *
9  * This program is distributed in the hope that it will be useful, but
10  * WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
12  * General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software
16  * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
17  */
18
19 FILE_LICENCE ( GPL2_OR_LATER );
20
21 #include <stdint.h>
22 #include <stdlib.h>
23 #include <string.h>
24 #include <errno.h>
25 #include <stdio.h>
26 #include <unistd.h>
27 #include <byteswap.h>
28 #include <gpxe/infiniband.h>
29 #include <gpxe/iobuf.h>
30 #include <gpxe/ib_gma.h>
31
32 /**
33  * @file
34  *
35  * Infiniband General Management Agent
36  *
37  */
38
39 /** A MAD request */
40 struct ib_mad_request {
41         /** Associated GMA */
42         struct ib_gma *gma;
43         /** List of outstanding MAD requests */
44         struct list_head list;
45         /** Retry timer */
46         struct retry_timer timer;
47         /** Destination address */
48         struct ib_address_vector av;
49         /** MAD request */
50         union ib_mad mad;
51 };
52
53 /** GMA number of send WQEs
54  *
55  * This is a policy decision.
56  */
57 #define IB_GMA_NUM_SEND_WQES 4
58
59 /** GMA number of receive WQEs
60  *
61  * This is a policy decision.
62  */
63 #define IB_GMA_NUM_RECV_WQES 2
64
65 /** GMA number of completion queue entries
66  *
67  * This is a policy decision
68  */
69 #define IB_GMA_NUM_CQES 8
70
71 /** GMA TID magic signature */
72 #define IB_GMA_TID_MAGIC ( ( 'g' << 24 ) | ( 'P' << 16 ) | ( 'X' << 8 ) | 'E' )
73
74 /** TID to use for next MAD request */
75 static unsigned int next_request_tid;
76
77 /**
78  * Call attribute handler
79  *
80  * @v gma               General management agent
81  * @v mad               MAD
82  * @ret rc              Return status code
83  */
84 static int ib_handle_mad ( struct ib_gma *gma, union ib_mad *mad ) {
85         struct ib_mad_hdr *hdr = &mad->hdr;
86         struct ib_gma_handler *handler;
87
88         for_each_table_entry ( handler, IB_GMA_HANDLERS ) {
89                 if ( ( ( handler->mgmt_class & ~handler->mgmt_class_ignore ) ==
90                        ( hdr->mgmt_class & ~handler->mgmt_class_ignore ) ) &&
91                      ( handler->class_version == hdr->class_version ) &&
92                      ( handler->method == hdr->method ) &&
93                      ( handler->attr_id == hdr->attr_id ) ) {
94                         hdr->method = handler->resp_method;
95                         return handler->handle ( gma, mad );
96                 }
97         }
98
99         hdr->method = IB_MGMT_METHOD_TRAP;
100         hdr->status = htons ( IB_MGMT_STATUS_UNSUPPORTED_METHOD_ATTR );
101         return -ENOTSUP;
102 }
103
104 /**
105  * Complete GMA receive
106  *
107  *
108  * @v ibdev             Infiniband device
109  * @v qp                Queue pair
110  * @v av                Address vector
111  * @v iobuf             I/O buffer
112  * @v rc                Completion status code
113  */
114 static void ib_gma_complete_recv ( struct ib_device *ibdev,
115                                    struct ib_queue_pair *qp,
116                                    struct ib_address_vector *av,
117                                    struct io_buffer *iobuf, int rc ) {
118         struct ib_gma *gma = ib_qp_get_ownerdata ( qp );
119         struct ib_mad_request *request;
120         union ib_mad *mad;
121         struct ib_mad_hdr *hdr;
122         unsigned int hop_pointer;
123         unsigned int hop_count;
124
125         /* Ignore errors */
126         if ( rc != 0 ) {
127                 DBGC ( gma, "GMA %p RX error: %s\n", gma, strerror ( rc ) );
128                 goto out;
129         }
130
131         /* Sanity checks */
132         if ( iob_len ( iobuf ) != sizeof ( *mad ) ) {
133                 DBGC ( gma, "GMA %p RX bad size (%zd bytes)\n",
134                        gma, iob_len ( iobuf ) );
135                 DBGC_HDA ( gma, 0, iobuf->data, iob_len ( iobuf ) );
136                 goto out;
137         }
138         mad = iobuf->data;
139         hdr = &mad->hdr;
140         if ( hdr->base_version != IB_MGMT_BASE_VERSION ) {
141                 DBGC ( gma, "GMA %p unsupported base version %x\n",
142                        gma, hdr->base_version );
143                 DBGC_HDA ( gma, 0, mad, sizeof ( *mad ) );
144                 goto out;
145         }
146         DBGC ( gma, "GMA %p RX TID %08x%08x (%02x,%02x,%02x,%04x) status "
147                "%04x\n", gma, ntohl ( hdr->tid[0] ), ntohl ( hdr->tid[1] ),
148                hdr->mgmt_class, hdr->class_version, hdr->method,
149                ntohs ( hdr->attr_id ), ntohs ( hdr->status ) );
150         DBGC2_HDA ( gma, 0, mad, sizeof ( *mad ) );
151
152         /* Dequeue request if applicable */
153         list_for_each_entry ( request, &gma->requests, list ) {
154                 if ( memcmp ( &request->mad.hdr.tid, &hdr->tid,
155                               sizeof ( request->mad.hdr.tid ) ) == 0 ) {
156                         stop_timer ( &request->timer );
157                         list_del ( &request->list );
158                         free ( request );
159                         break;
160                 }
161         }
162
163         /* Handle MAD, if possible */
164         if ( ( rc = ib_handle_mad ( gma, mad ) ) != 0 ) {
165                 DBGC ( gma, "GMA %p could not handle TID %08x%08x: %s\n",
166                        gma, ntohl ( hdr->tid[0] ), ntohl ( hdr->tid[1] ),
167                        strerror ( rc ) );
168                 /* Do not abort; we may want to send an error response */
169         }
170
171         /* Finish processing if we have no response to send */
172         if ( ! hdr->method )
173                 goto out;
174
175         DBGC ( gma, "GMA %p TX TID %08x%08x (%02x,%02x,%02x,%04x)\n", gma,
176                ntohl ( hdr->tid[0] ), ntohl ( hdr->tid[1] ), hdr->mgmt_class,
177                hdr->class_version, hdr->method, ntohs ( hdr->attr_id ) );
178         DBGC2_HDA ( gma, 0, mad, sizeof ( *mad ) );
179
180         /* Set response fields for directed route SMPs */
181         if ( hdr->mgmt_class == IB_MGMT_CLASS_SUBN_DIRECTED_ROUTE ) {
182                 struct ib_mad_smp *smp = &mad->smp;
183
184                 hdr->status |= htons ( IB_SMP_STATUS_D_INBOUND );
185                 hop_pointer = smp->mad_hdr.class_specific.smp.hop_pointer;
186                 hop_count = smp->mad_hdr.class_specific.smp.hop_count;
187                 assert ( hop_count == hop_pointer );
188                 if ( hop_pointer < ( sizeof ( smp->return_path.hops ) /
189                                      sizeof ( smp->return_path.hops[0] ) ) ) {
190                         smp->return_path.hops[hop_pointer] = ibdev->port;
191                 } else {
192                         DBGC ( gma, "GMA %p invalid hop pointer %d\n",
193                                gma, hop_pointer );
194                         goto out;
195                 }
196         }
197
198         /* Send MAD response, if applicable */
199         if ( ( rc = ib_post_send ( ibdev, qp, av,
200                                    iob_disown ( iobuf ) ) ) != 0 ) {
201                 DBGC ( gma, "GMA %p could not send MAD response: %s\n",
202                        gma, strerror ( rc ) );
203                 goto out;
204         }
205
206  out:
207         free_iob ( iobuf );
208 }
209
210 /** GMA completion operations */
211 static struct ib_completion_queue_operations ib_gma_completion_ops = {
212         .complete_recv = ib_gma_complete_recv,
213 };
214
215 /**
216  * Transmit MAD request
217  *
218  * @v gma               General management agent
219  * @v request           MAD request
220  * @ret rc              Return status code
221  */
222 static int ib_gma_send ( struct ib_gma *gma, struct ib_mad_request *request ) {
223         struct io_buffer *iobuf;
224         int rc;
225
226         DBGC ( gma, "GMA %p TX TID %08x%08x (%02x,%02x,%02x,%04x)\n",
227                gma, ntohl ( request->mad.hdr.tid[0] ),
228                ntohl ( request->mad.hdr.tid[1] ), request->mad.hdr.mgmt_class,
229                request->mad.hdr.class_version, request->mad.hdr.method,
230                ntohs ( request->mad.hdr.attr_id ) );
231         DBGC2_HDA ( gma, 0, &request->mad, sizeof ( request->mad ) );
232
233         /* Construct I/O buffer */
234         iobuf = alloc_iob ( sizeof ( request->mad ) );
235         if ( ! iobuf ) {
236                 DBGC ( gma, "GMA %p could not allocate buffer for TID "
237                        "%08x%08x\n", gma, ntohl ( request->mad.hdr.tid[0] ),
238                        ntohl ( request->mad.hdr.tid[1] ) );
239                 return -ENOMEM;
240         }
241         memcpy ( iob_put ( iobuf, sizeof ( request->mad ) ), &request->mad,
242                  sizeof ( request->mad ) );
243
244         /* Send I/O buffer */
245         if ( ( rc = ib_post_send ( gma->ibdev, gma->qp, &request->av,
246                                    iobuf ) ) != 0 ) {
247                 DBGC ( gma, "GMA %p could not send TID %08x%08x: %s\n",
248                        gma,  ntohl ( request->mad.hdr.tid[0] ),
249                        ntohl ( request->mad.hdr.tid[1] ), strerror ( rc ) );
250                 free_iob ( iobuf );
251                 return rc;
252         }
253
254         return 0;
255 }
256
257 /**
258  * Handle MAD request timer expiry
259  *
260  * @v timer             Retry timer
261  * @v expired           Failure indicator
262  */
263 static void ib_gma_timer_expired ( struct retry_timer *timer, int expired ) {
264         struct ib_mad_request *request =
265                 container_of ( timer, struct ib_mad_request, timer );
266         struct ib_gma *gma = request->gma;
267
268         /* Abandon TID if we have tried too many times */
269         if ( expired ) {
270                 DBGC ( gma, "GMA %p abandoning TID %08x%08x\n",
271                        gma, ntohl ( request->mad.hdr.tid[0] ),
272                        ntohl ( request->mad.hdr.tid[1] ) );
273                 list_del ( &request->list );
274                 free ( request );
275                 return;
276         }
277
278         /* Restart retransmission timer */
279         start_timer ( timer );
280
281         /* Resend request */
282         ib_gma_send ( gma, request );
283 }
284
285 /**
286  * Issue MAD request
287  *
288  * @v gma               General management agent
289  * @v mad               MAD request
290  * @v av                Destination address, or NULL for SM
291  * @v retry             Request should be retried until a response arrives
292  * @ret rc              Return status code
293  */
294 int ib_gma_request ( struct ib_gma *gma, union ib_mad *mad,
295                      struct ib_address_vector *av, int retry ) {
296         struct ib_device *ibdev = gma->ibdev;
297         struct ib_mad_request *request;
298
299         /* Allocate and initialise structure */
300         request = zalloc ( sizeof ( *request ) );
301         if ( ! request ) {
302                 DBGC ( gma, "GMA %p could not allocate MAD request\n", gma );
303                 return -ENOMEM;
304         }
305         request->gma = gma;
306         request->timer.expired = ib_gma_timer_expired;
307
308         /* Determine address vector */
309         if ( av ) {
310                 memcpy ( &request->av, av, sizeof ( request->av ) );
311         } else {
312                 request->av.lid = ibdev->sm_lid;
313                 request->av.sl = ibdev->sm_sl;
314                 request->av.qpn = IB_QPN_GMA;
315                 request->av.qkey = IB_QKEY_GMA;
316         }
317
318         /* Copy MAD body */
319         memcpy ( &request->mad, mad, sizeof ( request->mad ) );
320
321         /* Allocate TID */
322         request->mad.hdr.tid[0] = htonl ( IB_GMA_TID_MAGIC );
323         request->mad.hdr.tid[1] = htonl ( ++next_request_tid );
324
325         /* Send initial request.  Ignore errors; the retry timer will
326          * take care of those we care about.
327          */
328         ib_gma_send ( gma, request );
329
330         /* Add to list and start timer if applicable */
331         if ( retry ) {
332                 list_add ( &request->list, &gma->requests );
333                 start_timer ( &request->timer );
334         } else {
335                 free ( request );
336         }
337
338         return 0;
339 }
340
341 /**
342  * Create GMA
343  *
344  * @v gma               General management agent
345  * @v ibdev             Infiniband device
346  * @v qkey              Queue key
347  * @ret rc              Return status code
348  */
349 int ib_create_gma ( struct ib_gma *gma, struct ib_device *ibdev,
350                     unsigned long qkey ) {
351         int rc;
352
353         /* Initialise fields */
354         memset ( gma, 0, sizeof ( *gma ) );
355         gma->ibdev = ibdev;
356         INIT_LIST_HEAD ( &gma->requests );
357
358         /* Create completion queue */
359         gma->cq = ib_create_cq ( ibdev, IB_GMA_NUM_CQES,
360                                  &ib_gma_completion_ops );
361         if ( ! gma->cq ) {
362                 DBGC ( gma, "GMA %p could not allocate completion queue\n",
363                        gma );
364                 rc = -ENOMEM;
365                 goto err_create_cq;
366         }
367
368         /* Create queue pair */
369         gma->qp = ib_create_qp ( ibdev, IB_GMA_NUM_SEND_WQES, gma->cq,
370                                  IB_GMA_NUM_RECV_WQES, gma->cq, qkey );
371         if ( ! gma->qp ) {
372                 DBGC ( gma, "GMA %p could not allocate queue pair\n", gma );
373                 rc = -ENOMEM;
374                 goto err_create_qp;
375         }
376         ib_qp_set_ownerdata ( gma->qp, gma );
377
378         DBGC ( gma, "GMA %p running on QPN %#lx\n", gma, gma->qp->qpn );
379
380         /* Fill receive ring */
381         ib_refill_recv ( ibdev, gma->qp );
382         return 0;
383
384         ib_destroy_qp ( ibdev, gma->qp );
385  err_create_qp:
386         ib_destroy_cq ( ibdev, gma->cq );
387  err_create_cq:
388         return rc;
389 }
390
391 /**
392  * Destroy GMA
393  *
394  * @v gma               General management agent
395  */
396 void ib_destroy_gma ( struct ib_gma *gma ) {
397         struct ib_device *ibdev = gma->ibdev;
398         struct ib_mad_request *request;
399         struct ib_mad_request *tmp;
400
401         /* Flush any outstanding requests */
402         list_for_each_entry_safe ( request, tmp, &gma->requests, list ) {
403                 stop_timer ( &request->timer );
404                 list_del ( &request->list );
405                 free ( request );
406         }
407
408         ib_destroy_qp ( ibdev, gma->qp );
409         ib_destroy_cq ( ibdev, gma->cq );
410 }