xref: /openbmc/linux/drivers/ntb/ntb_transport.c (revision 51cb8dbf13246a0b144bff01d7d617efe550a055)
1fce8a7bbSJon Mason /*
2fce8a7bbSJon Mason  * This file is provided under a dual BSD/GPLv2 license.  When using or
3fce8a7bbSJon Mason  *   redistributing this file, you may do so under either license.
4fce8a7bbSJon Mason  *
5fce8a7bbSJon Mason  *   GPL LICENSE SUMMARY
6fce8a7bbSJon Mason  *
7fce8a7bbSJon Mason  *   Copyright(c) 2012 Intel Corporation. All rights reserved.
8e26a5843SAllen Hubbe  *   Copyright (C) 2015 EMC Corporation. All Rights Reserved.
9fce8a7bbSJon Mason  *
10fce8a7bbSJon Mason  *   This program is free software; you can redistribute it and/or modify
11fce8a7bbSJon Mason  *   it under the terms of version 2 of the GNU General Public License as
12fce8a7bbSJon Mason  *   published by the Free Software Foundation.
13fce8a7bbSJon Mason  *
14fce8a7bbSJon Mason  *   BSD LICENSE
15fce8a7bbSJon Mason  *
16fce8a7bbSJon Mason  *   Copyright(c) 2012 Intel Corporation. All rights reserved.
17e26a5843SAllen Hubbe  *   Copyright (C) 2015 EMC Corporation. All Rights Reserved.
18fce8a7bbSJon Mason  *
19fce8a7bbSJon Mason  *   Redistribution and use in source and binary forms, with or without
20fce8a7bbSJon Mason  *   modification, are permitted provided that the following conditions
21fce8a7bbSJon Mason  *   are met:
22fce8a7bbSJon Mason  *
23fce8a7bbSJon Mason  *     * Redistributions of source code must retain the above copyright
24fce8a7bbSJon Mason  *       notice, this list of conditions and the following disclaimer.
25fce8a7bbSJon Mason  *     * Redistributions in binary form must reproduce the above copy
26fce8a7bbSJon Mason  *       notice, this list of conditions and the following disclaimer in
27fce8a7bbSJon Mason  *       the documentation and/or other materials provided with the
28fce8a7bbSJon Mason  *       distribution.
29fce8a7bbSJon Mason  *     * Neither the name of Intel Corporation nor the names of its
30fce8a7bbSJon Mason  *       contributors may be used to endorse or promote products derived
31fce8a7bbSJon Mason  *       from this software without specific prior written permission.
32fce8a7bbSJon Mason  *
33fce8a7bbSJon Mason  *   THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
34fce8a7bbSJon Mason  *   "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
35fce8a7bbSJon Mason  *   LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
36fce8a7bbSJon Mason  *   A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
37fce8a7bbSJon Mason  *   OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
38fce8a7bbSJon Mason  *   SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
39fce8a7bbSJon Mason  *   LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
40fce8a7bbSJon Mason  *   DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
41fce8a7bbSJon Mason  *   THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
42fce8a7bbSJon Mason  *   (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
43fce8a7bbSJon Mason  *   OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
44fce8a7bbSJon Mason  *
45e26a5843SAllen Hubbe  * PCIe NTB Transport Linux driver
46fce8a7bbSJon Mason  *
47fce8a7bbSJon Mason  * Contact Information:
48fce8a7bbSJon Mason  * Jon Mason <jon.mason@intel.com>
49fce8a7bbSJon Mason  */
50fce8a7bbSJon Mason #include <linux/debugfs.h>
51fce8a7bbSJon Mason #include <linux/delay.h>
52282a2feeSJon Mason #include <linux/dmaengine.h>
53fce8a7bbSJon Mason #include <linux/dma-mapping.h>
54fce8a7bbSJon Mason #include <linux/errno.h>
55fce8a7bbSJon Mason #include <linux/export.h>
56fce8a7bbSJon Mason #include <linux/interrupt.h>
57fce8a7bbSJon Mason #include <linux/module.h>
58fce8a7bbSJon Mason #include <linux/pci.h>
59fce8a7bbSJon Mason #include <linux/slab.h>
60fce8a7bbSJon Mason #include <linux/types.h>
6106917f75SDave Jiang #include <linux/uaccess.h>
62e26a5843SAllen Hubbe #include "linux/ntb.h"
63e26a5843SAllen Hubbe #include "linux/ntb_transport.h"
64fce8a7bbSJon Mason 
65e26a5843SAllen Hubbe #define NTB_TRANSPORT_VERSION	4
66e26a5843SAllen Hubbe #define NTB_TRANSPORT_VER	"4"
67e26a5843SAllen Hubbe #define NTB_TRANSPORT_NAME	"ntb_transport"
68e26a5843SAllen Hubbe #define NTB_TRANSPORT_DESC	"Software Queue-Pair Transport over NTB"
69b17faba0SShyam Sundar S K #define NTB_TRANSPORT_MIN_SPADS (MW0_SZ_HIGH + 2)
70e26a5843SAllen Hubbe 
71e26a5843SAllen Hubbe MODULE_DESCRIPTION(NTB_TRANSPORT_DESC);
72e26a5843SAllen Hubbe MODULE_VERSION(NTB_TRANSPORT_VER);
73e26a5843SAllen Hubbe MODULE_LICENSE("Dual BSD/GPL");
74e26a5843SAllen Hubbe MODULE_AUTHOR("Intel Corporation");
75e26a5843SAllen Hubbe 
76e26a5843SAllen Hubbe static unsigned long max_mw_size;
77e26a5843SAllen Hubbe module_param(max_mw_size, ulong, 0644);
78e26a5843SAllen Hubbe MODULE_PARM_DESC(max_mw_size, "Limit size of large memory windows");
79fce8a7bbSJon Mason 
809891417dSDave Jiang static unsigned int transport_mtu = 0x10000;
81fce8a7bbSJon Mason module_param(transport_mtu, uint, 0644);
82fce8a7bbSJon Mason MODULE_PARM_DESC(transport_mtu, "Maximum size of NTB transport packets");
83fce8a7bbSJon Mason 
84948d3a65SJon Mason static unsigned char max_num_clients;
85fce8a7bbSJon Mason module_param(max_num_clients, byte, 0644);
86fce8a7bbSJon Mason MODULE_PARM_DESC(max_num_clients, "Maximum number of NTB transport clients");
87fce8a7bbSJon Mason 
88282a2feeSJon Mason static unsigned int copy_bytes = 1024;
89282a2feeSJon Mason module_param(copy_bytes, uint, 0644);
90282a2feeSJon Mason MODULE_PARM_DESC(copy_bytes, "Threshold under which NTB will use the CPU to copy instead of DMA");
91282a2feeSJon Mason 
92a41ef053SDave Jiang static bool use_dma;
93a41ef053SDave Jiang module_param(use_dma, bool, 0644);
94a41ef053SDave Jiang MODULE_PARM_DESC(use_dma, "Use DMA engine to perform large data copy");
95a41ef053SDave Jiang 
96e26a5843SAllen Hubbe static struct dentry *nt_debugfs_dir;
97e26a5843SAllen Hubbe 
981e530119SSerge Semin /* Only two-ports NTB devices are supported */
991e530119SSerge Semin #define PIDX		NTB_DEF_PEER_IDX
1001e530119SSerge Semin 
101fce8a7bbSJon Mason struct ntb_queue_entry {
102fce8a7bbSJon Mason 	/* ntb_queue list reference */
103fce8a7bbSJon Mason 	struct list_head entry;
104e26a5843SAllen Hubbe 	/* pointers to data to be transferred */
105fce8a7bbSJon Mason 	void *cb_data;
106fce8a7bbSJon Mason 	void *buf;
107fce8a7bbSJon Mason 	unsigned int len;
108fce8a7bbSJon Mason 	unsigned int flags;
1099cabc269SDave Jiang 	int retries;
1109cabc269SDave Jiang 	int errors;
1119cabc269SDave Jiang 	unsigned int tx_index;
11272203572SDave Jiang 	unsigned int rx_index;
113282a2feeSJon Mason 
114282a2feeSJon Mason 	struct ntb_transport_qp *qp;
115282a2feeSJon Mason 	union {
116282a2feeSJon Mason 		struct ntb_payload_header __iomem *tx_hdr;
117282a2feeSJon Mason 		struct ntb_payload_header *rx_hdr;
118282a2feeSJon Mason 	};
119fce8a7bbSJon Mason };
120fce8a7bbSJon Mason 
121793c20e9SJon Mason struct ntb_rx_info {
122793c20e9SJon Mason 	unsigned int entry;
123793c20e9SJon Mason };
124793c20e9SJon Mason 
125fce8a7bbSJon Mason struct ntb_transport_qp {
126e26a5843SAllen Hubbe 	struct ntb_transport_ctx *transport;
127e26a5843SAllen Hubbe 	struct ntb_dev *ndev;
128fce8a7bbSJon Mason 	void *cb_data;
129569410caSDave Jiang 	struct dma_chan *tx_dma_chan;
130569410caSDave Jiang 	struct dma_chan *rx_dma_chan;
131fce8a7bbSJon Mason 
132fce8a7bbSJon Mason 	bool client_ready;
133e26a5843SAllen Hubbe 	bool link_is_up;
134e9021331SDave Jiang 	bool active;
135e26a5843SAllen Hubbe 
136fce8a7bbSJon Mason 	u8 qp_num;	/* Only 64 QP's are allowed.  0-63 */
137e26a5843SAllen Hubbe 	u64 qp_bit;
138fce8a7bbSJon Mason 
13974465645SJon Mason 	struct ntb_rx_info __iomem *rx_info;
140793c20e9SJon Mason 	struct ntb_rx_info *remote_rx_info;
141793c20e9SJon Mason 
142fce8a7bbSJon Mason 	void (*tx_handler)(struct ntb_transport_qp *qp, void *qp_data,
143fce8a7bbSJon Mason 			   void *data, int len);
144fce8a7bbSJon Mason 	struct list_head tx_free_q;
145fce8a7bbSJon Mason 	spinlock_t ntb_tx_free_q_lock;
14674465645SJon Mason 	void __iomem *tx_mw;
147c59666bbSLogan Gunthorpe 	phys_addr_t tx_mw_phys;
148c59666bbSLogan Gunthorpe 	size_t tx_mw_size;
149c59666bbSLogan Gunthorpe 	dma_addr_t tx_mw_dma_addr;
150793c20e9SJon Mason 	unsigned int tx_index;
151793c20e9SJon Mason 	unsigned int tx_max_entry;
152ef114ed5SJon Mason 	unsigned int tx_max_frame;
153fce8a7bbSJon Mason 
154fce8a7bbSJon Mason 	void (*rx_handler)(struct ntb_transport_qp *qp, void *qp_data,
155fce8a7bbSJon Mason 			   void *data, int len);
156da2e5ae5SAllen Hubbe 	struct list_head rx_post_q;
157fce8a7bbSJon Mason 	struct list_head rx_pend_q;
158fce8a7bbSJon Mason 	struct list_head rx_free_q;
159da2e5ae5SAllen Hubbe 	/* ntb_rx_q_lock: synchronize access to rx_XXXX_q */
160da2e5ae5SAllen Hubbe 	spinlock_t ntb_rx_q_lock;
161793c20e9SJon Mason 	void *rx_buff;
162793c20e9SJon Mason 	unsigned int rx_index;
163793c20e9SJon Mason 	unsigned int rx_max_entry;
164ef114ed5SJon Mason 	unsigned int rx_max_frame;
165a754a8fcSDave Jiang 	unsigned int rx_alloc_entry;
166282a2feeSJon Mason 	dma_cookie_t last_cookie;
167e26a5843SAllen Hubbe 	struct tasklet_struct rxc_db_work;
168fce8a7bbSJon Mason 
169fce8a7bbSJon Mason 	void (*event_handler)(void *data, int status);
170fce8a7bbSJon Mason 	struct delayed_work link_work;
1717b4f2d3cSJon Mason 	struct work_struct link_cleanup;
172fce8a7bbSJon Mason 
173fce8a7bbSJon Mason 	struct dentry *debugfs_dir;
174fce8a7bbSJon Mason 	struct dentry *debugfs_stats;
175fce8a7bbSJon Mason 
176fce8a7bbSJon Mason 	/* Stats */
177fce8a7bbSJon Mason 	u64 rx_bytes;
178fce8a7bbSJon Mason 	u64 rx_pkts;
179fce8a7bbSJon Mason 	u64 rx_ring_empty;
180fce8a7bbSJon Mason 	u64 rx_err_no_buf;
181fce8a7bbSJon Mason 	u64 rx_err_oflow;
182fce8a7bbSJon Mason 	u64 rx_err_ver;
183282a2feeSJon Mason 	u64 rx_memcpy;
184282a2feeSJon Mason 	u64 rx_async;
185fce8a7bbSJon Mason 	u64 tx_bytes;
186fce8a7bbSJon Mason 	u64 tx_pkts;
187fce8a7bbSJon Mason 	u64 tx_ring_full;
188282a2feeSJon Mason 	u64 tx_err_no_buf;
189282a2feeSJon Mason 	u64 tx_memcpy;
190282a2feeSJon Mason 	u64 tx_async;
191fce8a7bbSJon Mason };
192fce8a7bbSJon Mason 
193fce8a7bbSJon Mason struct ntb_transport_mw {
194e26a5843SAllen Hubbe 	phys_addr_t phys_addr;
195e26a5843SAllen Hubbe 	resource_size_t phys_size;
196e26a5843SAllen Hubbe 	void __iomem *vbase;
197e26a5843SAllen Hubbe 	size_t xlat_size;
198e26a5843SAllen Hubbe 	size_t buff_size;
199fc5d1829SAaron Sierra 	size_t alloc_size;
200fc5d1829SAaron Sierra 	void *alloc_addr;
201fce8a7bbSJon Mason 	void *virt_addr;
202fce8a7bbSJon Mason 	dma_addr_t dma_addr;
203fce8a7bbSJon Mason };
204fce8a7bbSJon Mason 
205fce8a7bbSJon Mason struct ntb_transport_client_dev {
206fce8a7bbSJon Mason 	struct list_head entry;
207e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt;
208fce8a7bbSJon Mason 	struct device dev;
209fce8a7bbSJon Mason };
210fce8a7bbSJon Mason 
211e26a5843SAllen Hubbe struct ntb_transport_ctx {
212fce8a7bbSJon Mason 	struct list_head entry;
213fce8a7bbSJon Mason 	struct list_head client_devs;
214fce8a7bbSJon Mason 
215e26a5843SAllen Hubbe 	struct ntb_dev *ndev;
216e26a5843SAllen Hubbe 
217e26a5843SAllen Hubbe 	struct ntb_transport_mw *mw_vec;
218e26a5843SAllen Hubbe 	struct ntb_transport_qp *qp_vec;
219e26a5843SAllen Hubbe 	unsigned int mw_count;
220e26a5843SAllen Hubbe 	unsigned int qp_count;
221e26a5843SAllen Hubbe 	u64 qp_bitmap;
222e26a5843SAllen Hubbe 	u64 qp_bitmap_free;
223e26a5843SAllen Hubbe 
224e26a5843SAllen Hubbe 	bool link_is_up;
225fce8a7bbSJon Mason 	struct delayed_work link_work;
2267b4f2d3cSJon Mason 	struct work_struct link_cleanup;
227c8650fd0SDave Jiang 
228c8650fd0SDave Jiang 	struct dentry *debugfs_node_dir;
229fce8a7bbSJon Mason };
230fce8a7bbSJon Mason 
231fce8a7bbSJon Mason enum {
232e26a5843SAllen Hubbe 	DESC_DONE_FLAG = BIT(0),
233e26a5843SAllen Hubbe 	LINK_DOWN_FLAG = BIT(1),
234fce8a7bbSJon Mason };
235fce8a7bbSJon Mason 
236fce8a7bbSJon Mason struct ntb_payload_header {
23774465645SJon Mason 	unsigned int ver;
238fce8a7bbSJon Mason 	unsigned int len;
239fce8a7bbSJon Mason 	unsigned int flags;
240fce8a7bbSJon Mason };
241fce8a7bbSJon Mason 
242fce8a7bbSJon Mason enum {
243fce8a7bbSJon Mason 	VERSION = 0,
244fce8a7bbSJon Mason 	QP_LINKS,
245113fc505SJon Mason 	NUM_QPS,
246113fc505SJon Mason 	NUM_MWS,
247113fc505SJon Mason 	MW0_SZ_HIGH,
248113fc505SJon Mason 	MW0_SZ_LOW,
249fce8a7bbSJon Mason };
250fce8a7bbSJon Mason 
251e26a5843SAllen Hubbe #define dev_client_dev(__dev) \
252e26a5843SAllen Hubbe 	container_of((__dev), struct ntb_transport_client_dev, dev)
253e26a5843SAllen Hubbe 
254e26a5843SAllen Hubbe #define drv_client(__drv) \
255e26a5843SAllen Hubbe 	container_of((__drv), struct ntb_transport_client, driver)
256e26a5843SAllen Hubbe 
257e26a5843SAllen Hubbe #define QP_TO_MW(nt, qp)	((qp) % nt->mw_count)
258fce8a7bbSJon Mason #define NTB_QP_DEF_NUM_ENTRIES	100
259fce8a7bbSJon Mason #define NTB_LINK_DOWN_TIMEOUT	10
260fce8a7bbSJon Mason 
261e26a5843SAllen Hubbe static void ntb_transport_rxc_db(unsigned long data);
262e26a5843SAllen Hubbe static const struct ntb_ctx_ops ntb_transport_ops;
263e26a5843SAllen Hubbe static struct ntb_client ntb_transport_client;
2649cabc269SDave Jiang static int ntb_async_tx_submit(struct ntb_transport_qp *qp,
2659cabc269SDave Jiang 			       struct ntb_queue_entry *entry);
2669cabc269SDave Jiang static void ntb_memcpy_tx(struct ntb_queue_entry *entry, void __iomem *offset);
26772203572SDave Jiang static int ntb_async_rx_submit(struct ntb_queue_entry *entry, void *offset);
26872203572SDave Jiang static void ntb_memcpy_rx(struct ntb_queue_entry *entry, void *offset);
26972203572SDave Jiang 
270e26a5843SAllen Hubbe 
271e26a5843SAllen Hubbe static int ntb_transport_bus_match(struct device *dev,
272e26a5843SAllen Hubbe 				   struct device_driver *drv)
273fce8a7bbSJon Mason {
274fce8a7bbSJon Mason 	return !strncmp(dev_name(dev), drv->name, strlen(drv->name));
275fce8a7bbSJon Mason }
276fce8a7bbSJon Mason 
277e26a5843SAllen Hubbe static int ntb_transport_bus_probe(struct device *dev)
278fce8a7bbSJon Mason {
279e26a5843SAllen Hubbe 	const struct ntb_transport_client *client;
280fce8a7bbSJon Mason 	int rc = -EINVAL;
281fce8a7bbSJon Mason 
282fce8a7bbSJon Mason 	get_device(dev);
283e26a5843SAllen Hubbe 
284e26a5843SAllen Hubbe 	client = drv_client(dev->driver);
285e26a5843SAllen Hubbe 	rc = client->probe(dev);
286fce8a7bbSJon Mason 	if (rc)
287fce8a7bbSJon Mason 		put_device(dev);
288fce8a7bbSJon Mason 
289fce8a7bbSJon Mason 	return rc;
290fce8a7bbSJon Mason }
291fce8a7bbSJon Mason 
292e26a5843SAllen Hubbe static int ntb_transport_bus_remove(struct device *dev)
293fce8a7bbSJon Mason {
294e26a5843SAllen Hubbe 	const struct ntb_transport_client *client;
295fce8a7bbSJon Mason 
296e26a5843SAllen Hubbe 	client = drv_client(dev->driver);
297e26a5843SAllen Hubbe 	client->remove(dev);
298fce8a7bbSJon Mason 
299fce8a7bbSJon Mason 	put_device(dev);
300fce8a7bbSJon Mason 
301fce8a7bbSJon Mason 	return 0;
302fce8a7bbSJon Mason }
303fce8a7bbSJon Mason 
304e26a5843SAllen Hubbe static struct bus_type ntb_transport_bus = {
305e26a5843SAllen Hubbe 	.name = "ntb_transport",
306e26a5843SAllen Hubbe 	.match = ntb_transport_bus_match,
307e26a5843SAllen Hubbe 	.probe = ntb_transport_bus_probe,
308e26a5843SAllen Hubbe 	.remove = ntb_transport_bus_remove,
309fce8a7bbSJon Mason };
310fce8a7bbSJon Mason 
311fce8a7bbSJon Mason static LIST_HEAD(ntb_transport_list);
312fce8a7bbSJon Mason 
313e26a5843SAllen Hubbe static int ntb_bus_init(struct ntb_transport_ctx *nt)
314fce8a7bbSJon Mason {
31531510000SDave Jiang 	list_add_tail(&nt->entry, &ntb_transport_list);
316fce8a7bbSJon Mason 	return 0;
317fce8a7bbSJon Mason }
318fce8a7bbSJon Mason 
319e26a5843SAllen Hubbe static void ntb_bus_remove(struct ntb_transport_ctx *nt)
320fce8a7bbSJon Mason {
321fce8a7bbSJon Mason 	struct ntb_transport_client_dev *client_dev, *cd;
322fce8a7bbSJon Mason 
323fce8a7bbSJon Mason 	list_for_each_entry_safe(client_dev, cd, &nt->client_devs, entry) {
324fce8a7bbSJon Mason 		dev_err(client_dev->dev.parent, "%s still attached to bus, removing\n",
325fce8a7bbSJon Mason 			dev_name(&client_dev->dev));
326fce8a7bbSJon Mason 		list_del(&client_dev->entry);
327fce8a7bbSJon Mason 		device_unregister(&client_dev->dev);
328fce8a7bbSJon Mason 	}
329fce8a7bbSJon Mason 
330fce8a7bbSJon Mason 	list_del(&nt->entry);
331fce8a7bbSJon Mason }
332fce8a7bbSJon Mason 
333e26a5843SAllen Hubbe static void ntb_transport_client_release(struct device *dev)
334fce8a7bbSJon Mason {
335fce8a7bbSJon Mason 	struct ntb_transport_client_dev *client_dev;
336fce8a7bbSJon Mason 
337e26a5843SAllen Hubbe 	client_dev = dev_client_dev(dev);
338fce8a7bbSJon Mason 	kfree(client_dev);
339fce8a7bbSJon Mason }
340fce8a7bbSJon Mason 
341fce8a7bbSJon Mason /**
342e26a5843SAllen Hubbe  * ntb_transport_unregister_client_dev - Unregister NTB client device
343fce8a7bbSJon Mason  * @device_name: Name of NTB client device
344fce8a7bbSJon Mason  *
345fce8a7bbSJon Mason  * Unregister an NTB client device with the NTB transport layer
346fce8a7bbSJon Mason  */
347e26a5843SAllen Hubbe void ntb_transport_unregister_client_dev(char *device_name)
348fce8a7bbSJon Mason {
349fce8a7bbSJon Mason 	struct ntb_transport_client_dev *client, *cd;
350e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt;
351fce8a7bbSJon Mason 
352fce8a7bbSJon Mason 	list_for_each_entry(nt, &ntb_transport_list, entry)
353fce8a7bbSJon Mason 		list_for_each_entry_safe(client, cd, &nt->client_devs, entry)
354fce8a7bbSJon Mason 			if (!strncmp(dev_name(&client->dev), device_name,
355fce8a7bbSJon Mason 				     strlen(device_name))) {
356fce8a7bbSJon Mason 				list_del(&client->entry);
357fce8a7bbSJon Mason 				device_unregister(&client->dev);
358fce8a7bbSJon Mason 			}
359fce8a7bbSJon Mason }
360e26a5843SAllen Hubbe EXPORT_SYMBOL_GPL(ntb_transport_unregister_client_dev);
361fce8a7bbSJon Mason 
362fce8a7bbSJon Mason /**
363e26a5843SAllen Hubbe  * ntb_transport_register_client_dev - Register NTB client device
364fce8a7bbSJon Mason  * @device_name: Name of NTB client device
365fce8a7bbSJon Mason  *
366fce8a7bbSJon Mason  * Register an NTB client device with the NTB transport layer
367fce8a7bbSJon Mason  */
368e26a5843SAllen Hubbe int ntb_transport_register_client_dev(char *device_name)
369fce8a7bbSJon Mason {
370fce8a7bbSJon Mason 	struct ntb_transport_client_dev *client_dev;
371e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt;
3721199aa61SAllen Hubbe 	int node;
3738b19d450SJon Mason 	int rc, i = 0;
374fce8a7bbSJon Mason 
3758222b402SJon Mason 	if (list_empty(&ntb_transport_list))
3768222b402SJon Mason 		return -ENODEV;
3778222b402SJon Mason 
378fce8a7bbSJon Mason 	list_for_each_entry(nt, &ntb_transport_list, entry) {
379fce8a7bbSJon Mason 		struct device *dev;
380fce8a7bbSJon Mason 
3811199aa61SAllen Hubbe 		node = dev_to_node(&nt->ndev->dev);
3821199aa61SAllen Hubbe 
3831199aa61SAllen Hubbe 		client_dev = kzalloc_node(sizeof(*client_dev),
3841199aa61SAllen Hubbe 					  GFP_KERNEL, node);
385fce8a7bbSJon Mason 		if (!client_dev) {
386fce8a7bbSJon Mason 			rc = -ENOMEM;
387fce8a7bbSJon Mason 			goto err;
388fce8a7bbSJon Mason 		}
389fce8a7bbSJon Mason 
390fce8a7bbSJon Mason 		dev = &client_dev->dev;
391fce8a7bbSJon Mason 
392fce8a7bbSJon Mason 		/* setup and register client devices */
3938b19d450SJon Mason 		dev_set_name(dev, "%s%d", device_name, i);
394e26a5843SAllen Hubbe 		dev->bus = &ntb_transport_bus;
395e26a5843SAllen Hubbe 		dev->release = ntb_transport_client_release;
396e26a5843SAllen Hubbe 		dev->parent = &nt->ndev->dev;
397fce8a7bbSJon Mason 
398fce8a7bbSJon Mason 		rc = device_register(dev);
399fce8a7bbSJon Mason 		if (rc) {
400fce8a7bbSJon Mason 			kfree(client_dev);
401fce8a7bbSJon Mason 			goto err;
402fce8a7bbSJon Mason 		}
403fce8a7bbSJon Mason 
404fce8a7bbSJon Mason 		list_add_tail(&client_dev->entry, &nt->client_devs);
4058b19d450SJon Mason 		i++;
406fce8a7bbSJon Mason 	}
407fce8a7bbSJon Mason 
408fce8a7bbSJon Mason 	return 0;
409fce8a7bbSJon Mason 
410fce8a7bbSJon Mason err:
411e26a5843SAllen Hubbe 	ntb_transport_unregister_client_dev(device_name);
412fce8a7bbSJon Mason 
413fce8a7bbSJon Mason 	return rc;
414fce8a7bbSJon Mason }
415e26a5843SAllen Hubbe EXPORT_SYMBOL_GPL(ntb_transport_register_client_dev);
416fce8a7bbSJon Mason 
417fce8a7bbSJon Mason /**
418ec110bc7SAllen Hubbe  * ntb_transport_register_client - Register NTB client driver
419fce8a7bbSJon Mason  * @drv: NTB client driver to be registered
420fce8a7bbSJon Mason  *
421fce8a7bbSJon Mason  * Register an NTB client driver with the NTB transport layer
422fce8a7bbSJon Mason  *
423fce8a7bbSJon Mason  * RETURNS: An appropriate -ERRNO error value on error, or zero for success.
424fce8a7bbSJon Mason  */
425e26a5843SAllen Hubbe int ntb_transport_register_client(struct ntb_transport_client *drv)
426fce8a7bbSJon Mason {
427e26a5843SAllen Hubbe 	drv->driver.bus = &ntb_transport_bus;
428fce8a7bbSJon Mason 
4298222b402SJon Mason 	if (list_empty(&ntb_transport_list))
4308222b402SJon Mason 		return -ENODEV;
4318222b402SJon Mason 
432fce8a7bbSJon Mason 	return driver_register(&drv->driver);
433fce8a7bbSJon Mason }
434ec110bc7SAllen Hubbe EXPORT_SYMBOL_GPL(ntb_transport_register_client);
435fce8a7bbSJon Mason 
436fce8a7bbSJon Mason /**
437ec110bc7SAllen Hubbe  * ntb_transport_unregister_client - Unregister NTB client driver
438fce8a7bbSJon Mason  * @drv: NTB client driver to be unregistered
439fce8a7bbSJon Mason  *
440fce8a7bbSJon Mason  * Unregister an NTB client driver with the NTB transport layer
441fce8a7bbSJon Mason  *
442fce8a7bbSJon Mason  * RETURNS: An appropriate -ERRNO error value on error, or zero for success.
443fce8a7bbSJon Mason  */
444e26a5843SAllen Hubbe void ntb_transport_unregister_client(struct ntb_transport_client *drv)
445fce8a7bbSJon Mason {
446fce8a7bbSJon Mason 	driver_unregister(&drv->driver);
447fce8a7bbSJon Mason }
448ec110bc7SAllen Hubbe EXPORT_SYMBOL_GPL(ntb_transport_unregister_client);
449fce8a7bbSJon Mason 
450fce8a7bbSJon Mason static ssize_t debugfs_read(struct file *filp, char __user *ubuf, size_t count,
451fce8a7bbSJon Mason 			    loff_t *offp)
452fce8a7bbSJon Mason {
453fce8a7bbSJon Mason 	struct ntb_transport_qp *qp;
454d7237e22SJon Mason 	char *buf;
455fce8a7bbSJon Mason 	ssize_t ret, out_offset, out_count;
456fce8a7bbSJon Mason 
457260bee94SDave Jiang 	qp = filp->private_data;
458260bee94SDave Jiang 
459260bee94SDave Jiang 	if (!qp || !qp->link_is_up)
460260bee94SDave Jiang 		return 0;
461260bee94SDave Jiang 
462282a2feeSJon Mason 	out_count = 1000;
463d7237e22SJon Mason 
464d7237e22SJon Mason 	buf = kmalloc(out_count, GFP_KERNEL);
465d7237e22SJon Mason 	if (!buf)
466d7237e22SJon Mason 		return -ENOMEM;
467fce8a7bbSJon Mason 
468fce8a7bbSJon Mason 	out_offset = 0;
469fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
470d98ef99eSDave Jiang 			       "\nNTB QP stats:\n\n");
471fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
472fce8a7bbSJon Mason 			       "rx_bytes - \t%llu\n", qp->rx_bytes);
473fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
474fce8a7bbSJon Mason 			       "rx_pkts - \t%llu\n", qp->rx_pkts);
475fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
476282a2feeSJon Mason 			       "rx_memcpy - \t%llu\n", qp->rx_memcpy);
477282a2feeSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
478282a2feeSJon Mason 			       "rx_async - \t%llu\n", qp->rx_async);
479282a2feeSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
480fce8a7bbSJon Mason 			       "rx_ring_empty - %llu\n", qp->rx_ring_empty);
481fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
482fce8a7bbSJon Mason 			       "rx_err_no_buf - %llu\n", qp->rx_err_no_buf);
483fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
484fce8a7bbSJon Mason 			       "rx_err_oflow - \t%llu\n", qp->rx_err_oflow);
485fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
486fce8a7bbSJon Mason 			       "rx_err_ver - \t%llu\n", qp->rx_err_ver);
487fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
488d98ef99eSDave Jiang 			       "rx_buff - \t0x%p\n", qp->rx_buff);
489fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
490793c20e9SJon Mason 			       "rx_index - \t%u\n", qp->rx_index);
491fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
492a754a8fcSDave Jiang 			       "rx_max_entry - \t%u\n", qp->rx_max_entry);
493a754a8fcSDave Jiang 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
494a754a8fcSDave Jiang 			       "rx_alloc_entry - \t%u\n\n", qp->rx_alloc_entry);
495fce8a7bbSJon Mason 
496fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
497fce8a7bbSJon Mason 			       "tx_bytes - \t%llu\n", qp->tx_bytes);
498fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
499fce8a7bbSJon Mason 			       "tx_pkts - \t%llu\n", qp->tx_pkts);
500fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
501282a2feeSJon Mason 			       "tx_memcpy - \t%llu\n", qp->tx_memcpy);
502282a2feeSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
503282a2feeSJon Mason 			       "tx_async - \t%llu\n", qp->tx_async);
504282a2feeSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
505fce8a7bbSJon Mason 			       "tx_ring_full - \t%llu\n", qp->tx_ring_full);
506fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
507282a2feeSJon Mason 			       "tx_err_no_buf - %llu\n", qp->tx_err_no_buf);
508282a2feeSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
509d98ef99eSDave Jiang 			       "tx_mw - \t0x%p\n", qp->tx_mw);
510fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
511d98ef99eSDave Jiang 			       "tx_index (H) - \t%u\n", qp->tx_index);
512d98ef99eSDave Jiang 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
513d98ef99eSDave Jiang 			       "RRI (T) - \t%u\n",
514d98ef99eSDave Jiang 			       qp->remote_rx_info->entry);
515fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
516793c20e9SJon Mason 			       "tx_max_entry - \t%u\n", qp->tx_max_entry);
517e74bfeedSDave Jiang 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
518e74bfeedSDave Jiang 			       "free tx - \t%u\n",
519e74bfeedSDave Jiang 			       ntb_transport_tx_free_entry(qp));
520fce8a7bbSJon Mason 
521fce8a7bbSJon Mason 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
522d98ef99eSDave Jiang 			       "\n");
523d98ef99eSDave Jiang 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
524569410caSDave Jiang 			       "Using TX DMA - \t%s\n",
525569410caSDave Jiang 			       qp->tx_dma_chan ? "Yes" : "No");
526569410caSDave Jiang 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
527569410caSDave Jiang 			       "Using RX DMA - \t%s\n",
528569410caSDave Jiang 			       qp->rx_dma_chan ? "Yes" : "No");
529d98ef99eSDave Jiang 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
530d98ef99eSDave Jiang 			       "QP Link - \t%s\n",
531e26a5843SAllen Hubbe 			       qp->link_is_up ? "Up" : "Down");
532d98ef99eSDave Jiang 	out_offset += snprintf(buf + out_offset, out_count - out_offset,
533d98ef99eSDave Jiang 			       "\n");
534d98ef99eSDave Jiang 
535d7237e22SJon Mason 	if (out_offset > out_count)
536d7237e22SJon Mason 		out_offset = out_count;
537fce8a7bbSJon Mason 
538fce8a7bbSJon Mason 	ret = simple_read_from_buffer(ubuf, count, offp, buf, out_offset);
539d7237e22SJon Mason 	kfree(buf);
540fce8a7bbSJon Mason 	return ret;
541fce8a7bbSJon Mason }
542fce8a7bbSJon Mason 
543fce8a7bbSJon Mason static const struct file_operations ntb_qp_debugfs_stats = {
544fce8a7bbSJon Mason 	.owner = THIS_MODULE,
545d66d7ac2SJon Mason 	.open = simple_open,
546fce8a7bbSJon Mason 	.read = debugfs_read,
547fce8a7bbSJon Mason };
548fce8a7bbSJon Mason 
549fce8a7bbSJon Mason static void ntb_list_add(spinlock_t *lock, struct list_head *entry,
550fce8a7bbSJon Mason 			 struct list_head *list)
551fce8a7bbSJon Mason {
552fce8a7bbSJon Mason 	unsigned long flags;
553fce8a7bbSJon Mason 
554fce8a7bbSJon Mason 	spin_lock_irqsave(lock, flags);
555fce8a7bbSJon Mason 	list_add_tail(entry, list);
556fce8a7bbSJon Mason 	spin_unlock_irqrestore(lock, flags);
557fce8a7bbSJon Mason }
558fce8a7bbSJon Mason 
559fce8a7bbSJon Mason static struct ntb_queue_entry *ntb_list_rm(spinlock_t *lock,
560fce8a7bbSJon Mason 					   struct list_head *list)
561fce8a7bbSJon Mason {
562fce8a7bbSJon Mason 	struct ntb_queue_entry *entry;
563fce8a7bbSJon Mason 	unsigned long flags;
564fce8a7bbSJon Mason 
565fce8a7bbSJon Mason 	spin_lock_irqsave(lock, flags);
566fce8a7bbSJon Mason 	if (list_empty(list)) {
567fce8a7bbSJon Mason 		entry = NULL;
568fce8a7bbSJon Mason 		goto out;
569fce8a7bbSJon Mason 	}
570fce8a7bbSJon Mason 	entry = list_first_entry(list, struct ntb_queue_entry, entry);
571fce8a7bbSJon Mason 	list_del(&entry->entry);
572e74bfeedSDave Jiang 
573fce8a7bbSJon Mason out:
574fce8a7bbSJon Mason 	spin_unlock_irqrestore(lock, flags);
575fce8a7bbSJon Mason 
576fce8a7bbSJon Mason 	return entry;
577fce8a7bbSJon Mason }
578fce8a7bbSJon Mason 
579da2e5ae5SAllen Hubbe static struct ntb_queue_entry *ntb_list_mv(spinlock_t *lock,
580da2e5ae5SAllen Hubbe 					   struct list_head *list,
581da2e5ae5SAllen Hubbe 					   struct list_head *to_list)
582da2e5ae5SAllen Hubbe {
583da2e5ae5SAllen Hubbe 	struct ntb_queue_entry *entry;
584da2e5ae5SAllen Hubbe 	unsigned long flags;
585da2e5ae5SAllen Hubbe 
586da2e5ae5SAllen Hubbe 	spin_lock_irqsave(lock, flags);
587da2e5ae5SAllen Hubbe 
588da2e5ae5SAllen Hubbe 	if (list_empty(list)) {
589da2e5ae5SAllen Hubbe 		entry = NULL;
590da2e5ae5SAllen Hubbe 	} else {
591da2e5ae5SAllen Hubbe 		entry = list_first_entry(list, struct ntb_queue_entry, entry);
592da2e5ae5SAllen Hubbe 		list_move_tail(&entry->entry, to_list);
593da2e5ae5SAllen Hubbe 	}
594da2e5ae5SAllen Hubbe 
595da2e5ae5SAllen Hubbe 	spin_unlock_irqrestore(lock, flags);
596da2e5ae5SAllen Hubbe 
597da2e5ae5SAllen Hubbe 	return entry;
598da2e5ae5SAllen Hubbe }
599da2e5ae5SAllen Hubbe 
600e26a5843SAllen Hubbe static int ntb_transport_setup_qp_mw(struct ntb_transport_ctx *nt,
601fce8a7bbSJon Mason 				     unsigned int qp_num)
602fce8a7bbSJon Mason {
603e26a5843SAllen Hubbe 	struct ntb_transport_qp *qp = &nt->qp_vec[qp_num];
604e26a5843SAllen Hubbe 	struct ntb_transport_mw *mw;
605a754a8fcSDave Jiang 	struct ntb_dev *ndev = nt->ndev;
606a754a8fcSDave Jiang 	struct ntb_queue_entry *entry;
607ef114ed5SJon Mason 	unsigned int rx_size, num_qps_mw;
608e26a5843SAllen Hubbe 	unsigned int mw_num, mw_count, qp_count;
609793c20e9SJon Mason 	unsigned int i;
610a754a8fcSDave Jiang 	int node;
611fce8a7bbSJon Mason 
612e26a5843SAllen Hubbe 	mw_count = nt->mw_count;
613e26a5843SAllen Hubbe 	qp_count = nt->qp_count;
614948d3a65SJon Mason 
615e26a5843SAllen Hubbe 	mw_num = QP_TO_MW(nt, qp_num);
616e26a5843SAllen Hubbe 	mw = &nt->mw_vec[mw_num];
617fce8a7bbSJon Mason 
618e26a5843SAllen Hubbe 	if (!mw->virt_addr)
619e26a5843SAllen Hubbe 		return -ENOMEM;
620e26a5843SAllen Hubbe 
6218e8496e0SLogan Gunthorpe 	if (mw_num < qp_count % mw_count)
622e26a5843SAllen Hubbe 		num_qps_mw = qp_count / mw_count + 1;
623fce8a7bbSJon Mason 	else
624e26a5843SAllen Hubbe 		num_qps_mw = qp_count / mw_count;
625fce8a7bbSJon Mason 
626e26a5843SAllen Hubbe 	rx_size = (unsigned int)mw->xlat_size / num_qps_mw;
627c92ba3c5SJon Mason 	qp->rx_buff = mw->virt_addr + rx_size * (qp_num / mw_count);
628793c20e9SJon Mason 	rx_size -= sizeof(struct ntb_rx_info);
629793c20e9SJon Mason 
630282a2feeSJon Mason 	qp->remote_rx_info = qp->rx_buff + rx_size;
631282a2feeSJon Mason 
632c9d534c8SJon Mason 	/* Due to housekeeping, there must be atleast 2 buffs */
633c9d534c8SJon Mason 	qp->rx_max_frame = min(transport_mtu, rx_size / 2);
634793c20e9SJon Mason 	qp->rx_max_entry = rx_size / qp->rx_max_frame;
635793c20e9SJon Mason 	qp->rx_index = 0;
636793c20e9SJon Mason 
637a754a8fcSDave Jiang 	/*
638a754a8fcSDave Jiang 	 * Checking to see if we have more entries than the default.
639a754a8fcSDave Jiang 	 * We should add additional entries if that is the case so we
640a754a8fcSDave Jiang 	 * can be in sync with the transport frames.
641a754a8fcSDave Jiang 	 */
642a754a8fcSDave Jiang 	node = dev_to_node(&ndev->dev);
643a754a8fcSDave Jiang 	for (i = qp->rx_alloc_entry; i < qp->rx_max_entry; i++) {
64482edcc75SJia-Ju Bai 		entry = kzalloc_node(sizeof(*entry), GFP_KERNEL, node);
645a754a8fcSDave Jiang 		if (!entry)
646a754a8fcSDave Jiang 			return -ENOMEM;
647a754a8fcSDave Jiang 
648a754a8fcSDave Jiang 		entry->qp = qp;
649a754a8fcSDave Jiang 		ntb_list_add(&qp->ntb_rx_q_lock, &entry->entry,
650a754a8fcSDave Jiang 			     &qp->rx_free_q);
651a754a8fcSDave Jiang 		qp->rx_alloc_entry++;
652a754a8fcSDave Jiang 	}
653a754a8fcSDave Jiang 
654c9d534c8SJon Mason 	qp->remote_rx_info->entry = qp->rx_max_entry - 1;
655fce8a7bbSJon Mason 
656ef114ed5SJon Mason 	/* setup the hdr offsets with 0's */
657793c20e9SJon Mason 	for (i = 0; i < qp->rx_max_entry; i++) {
658e26a5843SAllen Hubbe 		void *offset = (qp->rx_buff + qp->rx_max_frame * (i + 1) -
659e26a5843SAllen Hubbe 				sizeof(struct ntb_payload_header));
660ef114ed5SJon Mason 		memset(offset, 0, sizeof(struct ntb_payload_header));
661793c20e9SJon Mason 	}
662fce8a7bbSJon Mason 
663fce8a7bbSJon Mason 	qp->rx_pkts = 0;
664fce8a7bbSJon Mason 	qp->tx_pkts = 0;
66590f9e934SJon Mason 	qp->tx_index = 0;
666e26a5843SAllen Hubbe 
667e26a5843SAllen Hubbe 	return 0;
668fce8a7bbSJon Mason }
669fce8a7bbSJon Mason 
670e26a5843SAllen Hubbe static void ntb_free_mw(struct ntb_transport_ctx *nt, int num_mw)
671113fc505SJon Mason {
672e26a5843SAllen Hubbe 	struct ntb_transport_mw *mw = &nt->mw_vec[num_mw];
673e26a5843SAllen Hubbe 	struct pci_dev *pdev = nt->ndev->pdev;
674113fc505SJon Mason 
675113fc505SJon Mason 	if (!mw->virt_addr)
676113fc505SJon Mason 		return;
677113fc505SJon Mason 
678443b9a14SSerge Semin 	ntb_mw_clear_trans(nt->ndev, PIDX, num_mw);
679fc5d1829SAaron Sierra 	dma_free_coherent(&pdev->dev, mw->alloc_size,
680fc5d1829SAaron Sierra 			  mw->alloc_addr, mw->dma_addr);
681e26a5843SAllen Hubbe 	mw->xlat_size = 0;
682e26a5843SAllen Hubbe 	mw->buff_size = 0;
683fc5d1829SAaron Sierra 	mw->alloc_size = 0;
684fc5d1829SAaron Sierra 	mw->alloc_addr = NULL;
685113fc505SJon Mason 	mw->virt_addr = NULL;
686113fc505SJon Mason }
687113fc505SJon Mason 
688fc5d1829SAaron Sierra static int ntb_alloc_mw_buffer(struct ntb_transport_mw *mw,
689fc5d1829SAaron Sierra 			       struct device *dma_dev, size_t align)
690fc5d1829SAaron Sierra {
691fc5d1829SAaron Sierra 	dma_addr_t dma_addr;
692fc5d1829SAaron Sierra 	void *alloc_addr, *virt_addr;
693fc5d1829SAaron Sierra 	int rc;
694fc5d1829SAaron Sierra 
695fc5d1829SAaron Sierra 	alloc_addr = dma_alloc_coherent(dma_dev, mw->alloc_size,
696fc5d1829SAaron Sierra 					&dma_addr, GFP_KERNEL);
697fc5d1829SAaron Sierra 	if (!alloc_addr) {
698fc5d1829SAaron Sierra 		dev_err(dma_dev, "Unable to alloc MW buff of size %zu\n",
699fc5d1829SAaron Sierra 			mw->alloc_size);
700fc5d1829SAaron Sierra 		return -ENOMEM;
701fc5d1829SAaron Sierra 	}
702fc5d1829SAaron Sierra 	virt_addr = alloc_addr;
703fc5d1829SAaron Sierra 
704fc5d1829SAaron Sierra 	/*
705fc5d1829SAaron Sierra 	 * we must ensure that the memory address allocated is BAR size
706fc5d1829SAaron Sierra 	 * aligned in order for the XLAT register to take the value. This
707fc5d1829SAaron Sierra 	 * is a requirement of the hardware. It is recommended to setup CMA
708fc5d1829SAaron Sierra 	 * for BAR sizes equal or greater than 4MB.
709fc5d1829SAaron Sierra 	 */
710fc5d1829SAaron Sierra 	if (!IS_ALIGNED(dma_addr, align)) {
711fc5d1829SAaron Sierra 		if (mw->alloc_size > mw->buff_size) {
712fc5d1829SAaron Sierra 			virt_addr = PTR_ALIGN(alloc_addr, align);
713fc5d1829SAaron Sierra 			dma_addr = ALIGN(dma_addr, align);
714fc5d1829SAaron Sierra 		} else {
715fc5d1829SAaron Sierra 			rc = -ENOMEM;
716fc5d1829SAaron Sierra 			goto err;
717fc5d1829SAaron Sierra 		}
718fc5d1829SAaron Sierra 	}
719fc5d1829SAaron Sierra 
720fc5d1829SAaron Sierra 	mw->alloc_addr = alloc_addr;
721fc5d1829SAaron Sierra 	mw->virt_addr = virt_addr;
722fc5d1829SAaron Sierra 	mw->dma_addr = dma_addr;
723fc5d1829SAaron Sierra 
724fc5d1829SAaron Sierra 	return 0;
725fc5d1829SAaron Sierra 
726fc5d1829SAaron Sierra err:
727fc5d1829SAaron Sierra 	dma_free_coherent(dma_dev, mw->alloc_size, alloc_addr, dma_addr);
728fc5d1829SAaron Sierra 
729fc5d1829SAaron Sierra 	return rc;
730fc5d1829SAaron Sierra }
731fc5d1829SAaron Sierra 
732e26a5843SAllen Hubbe static int ntb_set_mw(struct ntb_transport_ctx *nt, int num_mw,
7338c9edf63SAllen Hubbe 		      resource_size_t size)
734b77b2637SJon Mason {
735e26a5843SAllen Hubbe 	struct ntb_transport_mw *mw = &nt->mw_vec[num_mw];
736e26a5843SAllen Hubbe 	struct pci_dev *pdev = nt->ndev->pdev;
7378c9edf63SAllen Hubbe 	size_t xlat_size, buff_size;
738980c41c8SLogan Gunthorpe 	resource_size_t xlat_align;
739980c41c8SLogan Gunthorpe 	resource_size_t xlat_align_size;
740e26a5843SAllen Hubbe 	int rc;
741e26a5843SAllen Hubbe 
7428c9edf63SAllen Hubbe 	if (!size)
7438c9edf63SAllen Hubbe 		return -EINVAL;
7448c9edf63SAllen Hubbe 
745980c41c8SLogan Gunthorpe 	rc = ntb_mw_get_align(nt->ndev, PIDX, num_mw, &xlat_align,
746980c41c8SLogan Gunthorpe 			      &xlat_align_size, NULL);
747980c41c8SLogan Gunthorpe 	if (rc)
748980c41c8SLogan Gunthorpe 		return rc;
749980c41c8SLogan Gunthorpe 
750980c41c8SLogan Gunthorpe 	xlat_size = round_up(size, xlat_align_size);
751980c41c8SLogan Gunthorpe 	buff_size = round_up(size, xlat_align);
752b77b2637SJon Mason 
753b77b2637SJon Mason 	/* No need to re-setup */
754e26a5843SAllen Hubbe 	if (mw->xlat_size == xlat_size)
755b77b2637SJon Mason 		return 0;
756b77b2637SJon Mason 
757e26a5843SAllen Hubbe 	if (mw->buff_size)
758b77b2637SJon Mason 		ntb_free_mw(nt, num_mw);
759b77b2637SJon Mason 
760e26a5843SAllen Hubbe 	/* Alloc memory for receiving data.  Must be aligned */
761e26a5843SAllen Hubbe 	mw->xlat_size = xlat_size;
762e26a5843SAllen Hubbe 	mw->buff_size = buff_size;
763fc5d1829SAaron Sierra 	mw->alloc_size = buff_size;
764b77b2637SJon Mason 
765fc5d1829SAaron Sierra 	rc = ntb_alloc_mw_buffer(mw, &pdev->dev, xlat_align);
766fc5d1829SAaron Sierra 	if (rc) {
767fc5d1829SAaron Sierra 		mw->alloc_size *= 2;
768fc5d1829SAaron Sierra 		rc = ntb_alloc_mw_buffer(mw, &pdev->dev, xlat_align);
769fc5d1829SAaron Sierra 		if (rc) {
770fc5d1829SAaron Sierra 			dev_err(&pdev->dev,
771fc5d1829SAaron Sierra 				"Unable to alloc aligned MW buff\n");
772e26a5843SAllen Hubbe 			mw->xlat_size = 0;
773e26a5843SAllen Hubbe 			mw->buff_size = 0;
774fc5d1829SAaron Sierra 			mw->alloc_size = 0;
775fc5d1829SAaron Sierra 			return rc;
776b77b2637SJon Mason 		}
7773cc5ba19SDave Jiang 	}
7783cc5ba19SDave Jiang 
779b77b2637SJon Mason 	/* Notify HW the memory location of the receive buffer */
780443b9a14SSerge Semin 	rc = ntb_mw_set_trans(nt->ndev, PIDX, num_mw, mw->dma_addr,
781443b9a14SSerge Semin 			      mw->xlat_size);
782e26a5843SAllen Hubbe 	if (rc) {
783e26a5843SAllen Hubbe 		dev_err(&pdev->dev, "Unable to set mw%d translation", num_mw);
784e26a5843SAllen Hubbe 		ntb_free_mw(nt, num_mw);
785e26a5843SAllen Hubbe 		return -EIO;
786e26a5843SAllen Hubbe 	}
787b77b2637SJon Mason 
788b77b2637SJon Mason 	return 0;
789b77b2637SJon Mason }
790b77b2637SJon Mason 
7912849b5d7SAllen Hubbe static void ntb_qp_link_down_reset(struct ntb_transport_qp *qp)
7922849b5d7SAllen Hubbe {
7932849b5d7SAllen Hubbe 	qp->link_is_up = false;
794e9021331SDave Jiang 	qp->active = false;
7952849b5d7SAllen Hubbe 
7962849b5d7SAllen Hubbe 	qp->tx_index = 0;
7972849b5d7SAllen Hubbe 	qp->rx_index = 0;
7982849b5d7SAllen Hubbe 	qp->rx_bytes = 0;
7992849b5d7SAllen Hubbe 	qp->rx_pkts = 0;
8002849b5d7SAllen Hubbe 	qp->rx_ring_empty = 0;
8012849b5d7SAllen Hubbe 	qp->rx_err_no_buf = 0;
8022849b5d7SAllen Hubbe 	qp->rx_err_oflow = 0;
8032849b5d7SAllen Hubbe 	qp->rx_err_ver = 0;
8042849b5d7SAllen Hubbe 	qp->rx_memcpy = 0;
8052849b5d7SAllen Hubbe 	qp->rx_async = 0;
8062849b5d7SAllen Hubbe 	qp->tx_bytes = 0;
8072849b5d7SAllen Hubbe 	qp->tx_pkts = 0;
8082849b5d7SAllen Hubbe 	qp->tx_ring_full = 0;
8092849b5d7SAllen Hubbe 	qp->tx_err_no_buf = 0;
8102849b5d7SAllen Hubbe 	qp->tx_memcpy = 0;
8112849b5d7SAllen Hubbe 	qp->tx_async = 0;
8122849b5d7SAllen Hubbe }
8132849b5d7SAllen Hubbe 
814fca4d518SJon Mason static void ntb_qp_link_cleanup(struct ntb_transport_qp *qp)
815fce8a7bbSJon Mason {
816e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt = qp->transport;
817e26a5843SAllen Hubbe 	struct pci_dev *pdev = nt->ndev->pdev;
818fce8a7bbSJon Mason 
819e22e0b9dSAllen Hubbe 	dev_info(&pdev->dev, "qp %d: Link Cleanup\n", qp->qp_num);
8202849b5d7SAllen Hubbe 
8212849b5d7SAllen Hubbe 	cancel_delayed_work_sync(&qp->link_work);
8222849b5d7SAllen Hubbe 	ntb_qp_link_down_reset(qp);
823e26a5843SAllen Hubbe 
824e26a5843SAllen Hubbe 	if (qp->event_handler)
825e26a5843SAllen Hubbe 		qp->event_handler(qp->cb_data, qp->link_is_up);
826fca4d518SJon Mason }
827fca4d518SJon Mason 
828fca4d518SJon Mason static void ntb_qp_link_cleanup_work(struct work_struct *work)
829fca4d518SJon Mason {
830fca4d518SJon Mason 	struct ntb_transport_qp *qp = container_of(work,
831fca4d518SJon Mason 						   struct ntb_transport_qp,
832fca4d518SJon Mason 						   link_cleanup);
833e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt = qp->transport;
834fca4d518SJon Mason 
835fca4d518SJon Mason 	ntb_qp_link_cleanup(qp);
836fce8a7bbSJon Mason 
837e26a5843SAllen Hubbe 	if (nt->link_is_up)
838fce8a7bbSJon Mason 		schedule_delayed_work(&qp->link_work,
839fce8a7bbSJon Mason 				      msecs_to_jiffies(NTB_LINK_DOWN_TIMEOUT));
840fce8a7bbSJon Mason }
841fce8a7bbSJon Mason 
8427b4f2d3cSJon Mason static void ntb_qp_link_down(struct ntb_transport_qp *qp)
843fce8a7bbSJon Mason {
8447b4f2d3cSJon Mason 	schedule_work(&qp->link_cleanup);
8457b4f2d3cSJon Mason }
8467b4f2d3cSJon Mason 
847e26a5843SAllen Hubbe static void ntb_transport_link_cleanup(struct ntb_transport_ctx *nt)
8487b4f2d3cSJon Mason {
849e26a5843SAllen Hubbe 	struct ntb_transport_qp *qp;
850e26a5843SAllen Hubbe 	u64 qp_bitmap_alloc;
851b17faba0SShyam Sundar S K 	unsigned int i, count;
852fce8a7bbSJon Mason 
853e26a5843SAllen Hubbe 	qp_bitmap_alloc = nt->qp_bitmap & ~nt->qp_bitmap_free;
854fca4d518SJon Mason 
855e26a5843SAllen Hubbe 	/* Pass along the info to any clients */
856e26a5843SAllen Hubbe 	for (i = 0; i < nt->qp_count; i++)
857e26a5843SAllen Hubbe 		if (qp_bitmap_alloc & BIT_ULL(i)) {
858e26a5843SAllen Hubbe 			qp = &nt->qp_vec[i];
859e26a5843SAllen Hubbe 			ntb_qp_link_cleanup(qp);
860e26a5843SAllen Hubbe 			cancel_work_sync(&qp->link_cleanup);
861e26a5843SAllen Hubbe 			cancel_delayed_work_sync(&qp->link_work);
862e26a5843SAllen Hubbe 		}
863e26a5843SAllen Hubbe 
864e26a5843SAllen Hubbe 	if (!nt->link_is_up)
865fce8a7bbSJon Mason 		cancel_delayed_work_sync(&nt->link_work);
866fce8a7bbSJon Mason 
8679143595aSJoey Zhang 	for (i = 0; i < nt->mw_count; i++)
8689143595aSJoey Zhang 		ntb_free_mw(nt, i);
8699143595aSJoey Zhang 
870fce8a7bbSJon Mason 	/* The scratchpad registers keep the values if the remote side
871fce8a7bbSJon Mason 	 * goes down, blast them now to give them a sane value the next
872fce8a7bbSJon Mason 	 * time they are accessed
873fce8a7bbSJon Mason 	 */
874b17faba0SShyam Sundar S K 	count = ntb_spad_count(nt->ndev);
875b17faba0SShyam Sundar S K 	for (i = 0; i < count; i++)
876e26a5843SAllen Hubbe 		ntb_spad_write(nt->ndev, i, 0);
877fce8a7bbSJon Mason }
878fce8a7bbSJon Mason 
879fca4d518SJon Mason static void ntb_transport_link_cleanup_work(struct work_struct *work)
880fca4d518SJon Mason {
881e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt =
882e26a5843SAllen Hubbe 		container_of(work, struct ntb_transport_ctx, link_cleanup);
883fca4d518SJon Mason 
884fca4d518SJon Mason 	ntb_transport_link_cleanup(nt);
885fca4d518SJon Mason }
886fca4d518SJon Mason 
887e26a5843SAllen Hubbe static void ntb_transport_event_callback(void *data)
888fce8a7bbSJon Mason {
889e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt = data;
890fce8a7bbSJon Mason 
891e26a5843SAllen Hubbe 	if (ntb_link_is_up(nt->ndev, NULL, NULL) == 1)
892fce8a7bbSJon Mason 		schedule_delayed_work(&nt->link_work, 0);
893e26a5843SAllen Hubbe 	else
8947b4f2d3cSJon Mason 		schedule_work(&nt->link_cleanup);
895fce8a7bbSJon Mason }
896fce8a7bbSJon Mason 
897fce8a7bbSJon Mason static void ntb_transport_link_work(struct work_struct *work)
898fce8a7bbSJon Mason {
899e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt =
900e26a5843SAllen Hubbe 		container_of(work, struct ntb_transport_ctx, link_work.work);
901e26a5843SAllen Hubbe 	struct ntb_dev *ndev = nt->ndev;
902e26a5843SAllen Hubbe 	struct pci_dev *pdev = ndev->pdev;
903e26a5843SAllen Hubbe 	resource_size_t size;
904fce8a7bbSJon Mason 	u32 val;
90584f76685SDave Jiang 	int rc = 0, i, spad;
906fce8a7bbSJon Mason 
907113fc505SJon Mason 	/* send the local info, in the opposite order of the way we read it */
908e26a5843SAllen Hubbe 	for (i = 0; i < nt->mw_count; i++) {
909e26a5843SAllen Hubbe 		size = nt->mw_vec[i].phys_size;
910e26a5843SAllen Hubbe 
911e26a5843SAllen Hubbe 		if (max_mw_size && size > max_mw_size)
912e26a5843SAllen Hubbe 			size = max_mw_size;
913e26a5843SAllen Hubbe 
914e26a5843SAllen Hubbe 		spad = MW0_SZ_HIGH + (i * 2);
915d67288a3SSerge Semin 		ntb_peer_spad_write(ndev, PIDX, spad, upper_32_bits(size));
916e26a5843SAllen Hubbe 
917e26a5843SAllen Hubbe 		spad = MW0_SZ_LOW + (i * 2);
918d67288a3SSerge Semin 		ntb_peer_spad_write(ndev, PIDX, spad, lower_32_bits(size));
919fce8a7bbSJon Mason 	}
920fce8a7bbSJon Mason 
921d67288a3SSerge Semin 	ntb_peer_spad_write(ndev, PIDX, NUM_MWS, nt->mw_count);
922fce8a7bbSJon Mason 
923d67288a3SSerge Semin 	ntb_peer_spad_write(ndev, PIDX, NUM_QPS, nt->qp_count);
924fce8a7bbSJon Mason 
925d67288a3SSerge Semin 	ntb_peer_spad_write(ndev, PIDX, VERSION, NTB_TRANSPORT_VERSION);
926fce8a7bbSJon Mason 
927fce8a7bbSJon Mason 	/* Query the remote side for its info */
9280f69a7dfSDave Jiang 	val = ntb_spad_read(ndev, VERSION);
929e26a5843SAllen Hubbe 	dev_dbg(&pdev->dev, "Remote version = %d\n", val);
930fce8a7bbSJon Mason 	if (val != NTB_TRANSPORT_VERSION)
931fce8a7bbSJon Mason 		goto out;
932fce8a7bbSJon Mason 
9330f69a7dfSDave Jiang 	val = ntb_spad_read(ndev, NUM_QPS);
934fce8a7bbSJon Mason 	dev_dbg(&pdev->dev, "Remote max number of qps = %d\n", val);
935e26a5843SAllen Hubbe 	if (val != nt->qp_count)
936fce8a7bbSJon Mason 		goto out;
937fce8a7bbSJon Mason 
9380f69a7dfSDave Jiang 	val = ntb_spad_read(ndev, NUM_MWS);
939113fc505SJon Mason 	dev_dbg(&pdev->dev, "Remote number of mws = %d\n", val);
940e26a5843SAllen Hubbe 	if (val != nt->mw_count)
941e26a5843SAllen Hubbe 		goto out;
942fce8a7bbSJon Mason 
943e26a5843SAllen Hubbe 	for (i = 0; i < nt->mw_count; i++) {
944113fc505SJon Mason 		u64 val64;
945fce8a7bbSJon Mason 
9460f69a7dfSDave Jiang 		val = ntb_spad_read(ndev, MW0_SZ_HIGH + (i * 2));
947113fc505SJon Mason 		val64 = (u64)val << 32;
948fce8a7bbSJon Mason 
9490f69a7dfSDave Jiang 		val = ntb_spad_read(ndev, MW0_SZ_LOW + (i * 2));
950113fc505SJon Mason 		val64 |= val;
951113fc505SJon Mason 
952e26a5843SAllen Hubbe 		dev_dbg(&pdev->dev, "Remote MW%d size = %#llx\n", i, val64);
953113fc505SJon Mason 
954113fc505SJon Mason 		rc = ntb_set_mw(nt, i, val64);
955fce8a7bbSJon Mason 		if (rc)
956113fc505SJon Mason 			goto out1;
957113fc505SJon Mason 	}
958fce8a7bbSJon Mason 
959e26a5843SAllen Hubbe 	nt->link_is_up = true;
960fce8a7bbSJon Mason 
961e26a5843SAllen Hubbe 	for (i = 0; i < nt->qp_count; i++) {
962e26a5843SAllen Hubbe 		struct ntb_transport_qp *qp = &nt->qp_vec[i];
963fce8a7bbSJon Mason 
964fce8a7bbSJon Mason 		ntb_transport_setup_qp_mw(nt, i);
965fce8a7bbSJon Mason 
966e26a5843SAllen Hubbe 		if (qp->client_ready)
967fce8a7bbSJon Mason 			schedule_delayed_work(&qp->link_work, 0);
968fce8a7bbSJon Mason 	}
969fce8a7bbSJon Mason 
970fce8a7bbSJon Mason 	return;
971fce8a7bbSJon Mason 
972113fc505SJon Mason out1:
973e26a5843SAllen Hubbe 	for (i = 0; i < nt->mw_count; i++)
974113fc505SJon Mason 		ntb_free_mw(nt, i);
97584f76685SDave Jiang 
97684f76685SDave Jiang 	/* if there's an actual failure, we should just bail */
977f3fd2afeSDave Jiang 	if (rc < 0)
97884f76685SDave Jiang 		return;
97984f76685SDave Jiang 
980fce8a7bbSJon Mason out:
981e26a5843SAllen Hubbe 	if (ntb_link_is_up(ndev, NULL, NULL) == 1)
982fce8a7bbSJon Mason 		schedule_delayed_work(&nt->link_work,
983fce8a7bbSJon Mason 				      msecs_to_jiffies(NTB_LINK_DOWN_TIMEOUT));
984fce8a7bbSJon Mason }
985fce8a7bbSJon Mason 
986fce8a7bbSJon Mason static void ntb_qp_link_work(struct work_struct *work)
987fce8a7bbSJon Mason {
988fce8a7bbSJon Mason 	struct ntb_transport_qp *qp = container_of(work,
989fce8a7bbSJon Mason 						   struct ntb_transport_qp,
990fce8a7bbSJon Mason 						   link_work.work);
991e26a5843SAllen Hubbe 	struct pci_dev *pdev = qp->ndev->pdev;
992e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt = qp->transport;
993e26a5843SAllen Hubbe 	int val;
994fce8a7bbSJon Mason 
995e26a5843SAllen Hubbe 	WARN_ON(!nt->link_is_up);
996fce8a7bbSJon Mason 
997e26a5843SAllen Hubbe 	val = ntb_spad_read(nt->ndev, QP_LINKS);
998fce8a7bbSJon Mason 
999d67288a3SSerge Semin 	ntb_peer_spad_write(nt->ndev, PIDX, QP_LINKS, val | BIT(qp->qp_num));
1000fce8a7bbSJon Mason 
1001fce8a7bbSJon Mason 	/* query remote spad for qp ready bits */
100228762289SAllen Hubbe 	dev_dbg_ratelimited(&pdev->dev, "Remote QP link status = %x\n", val);
1003fce8a7bbSJon Mason 
1004fce8a7bbSJon Mason 	/* See if the remote side is up */
1005e26a5843SAllen Hubbe 	if (val & BIT(qp->qp_num)) {
1006fce8a7bbSJon Mason 		dev_info(&pdev->dev, "qp %d: Link Up\n", qp->qp_num);
1007e26a5843SAllen Hubbe 		qp->link_is_up = true;
1008e9021331SDave Jiang 		qp->active = true;
1009e26a5843SAllen Hubbe 
1010fce8a7bbSJon Mason 		if (qp->event_handler)
1011e26a5843SAllen Hubbe 			qp->event_handler(qp->cb_data, qp->link_is_up);
10128b5a22d8SAllen Hubbe 
1013e9021331SDave Jiang 		if (qp->active)
10148b5a22d8SAllen Hubbe 			tasklet_schedule(&qp->rxc_db_work);
1015e26a5843SAllen Hubbe 	} else if (nt->link_is_up)
1016fce8a7bbSJon Mason 		schedule_delayed_work(&qp->link_work,
1017fce8a7bbSJon Mason 				      msecs_to_jiffies(NTB_LINK_DOWN_TIMEOUT));
1018fce8a7bbSJon Mason }
1019fce8a7bbSJon Mason 
1020e26a5843SAllen Hubbe static int ntb_transport_init_queue(struct ntb_transport_ctx *nt,
1021fce8a7bbSJon Mason 				    unsigned int qp_num)
1022fce8a7bbSJon Mason {
1023fce8a7bbSJon Mason 	struct ntb_transport_qp *qp;
1024e26a5843SAllen Hubbe 	phys_addr_t mw_base;
1025e26a5843SAllen Hubbe 	resource_size_t mw_size;
1026ef114ed5SJon Mason 	unsigned int num_qps_mw, tx_size;
1027e26a5843SAllen Hubbe 	unsigned int mw_num, mw_count, qp_count;
1028282a2feeSJon Mason 	u64 qp_offset;
1029948d3a65SJon Mason 
1030e26a5843SAllen Hubbe 	mw_count = nt->mw_count;
1031e26a5843SAllen Hubbe 	qp_count = nt->qp_count;
1032fce8a7bbSJon Mason 
1033e26a5843SAllen Hubbe 	mw_num = QP_TO_MW(nt, qp_num);
1034e26a5843SAllen Hubbe 
1035e26a5843SAllen Hubbe 	qp = &nt->qp_vec[qp_num];
1036fce8a7bbSJon Mason 	qp->qp_num = qp_num;
1037fce8a7bbSJon Mason 	qp->transport = nt;
1038fce8a7bbSJon Mason 	qp->ndev = nt->ndev;
1039e26a5843SAllen Hubbe 	qp->client_ready = false;
1040fce8a7bbSJon Mason 	qp->event_handler = NULL;
10412849b5d7SAllen Hubbe 	ntb_qp_link_down_reset(qp);
1042fce8a7bbSJon Mason 
10438e8496e0SLogan Gunthorpe 	if (mw_num < qp_count % mw_count)
1044e26a5843SAllen Hubbe 		num_qps_mw = qp_count / mw_count + 1;
1045ef114ed5SJon Mason 	else
1046e26a5843SAllen Hubbe 		num_qps_mw = qp_count / mw_count;
1047ef114ed5SJon Mason 
1048e26a5843SAllen Hubbe 	mw_base = nt->mw_vec[mw_num].phys_addr;
1049e26a5843SAllen Hubbe 	mw_size = nt->mw_vec[mw_num].phys_size;
1050e26a5843SAllen Hubbe 
1051cbd27448SLogan Gunthorpe 	if (max_mw_size && mw_size > max_mw_size)
1052cbd27448SLogan Gunthorpe 		mw_size = max_mw_size;
1053cbd27448SLogan Gunthorpe 
1054e26a5843SAllen Hubbe 	tx_size = (unsigned int)mw_size / num_qps_mw;
1055c92ba3c5SJon Mason 	qp_offset = tx_size * (qp_num / mw_count);
1056e26a5843SAllen Hubbe 
1057c59666bbSLogan Gunthorpe 	qp->tx_mw_size = tx_size;
1058e26a5843SAllen Hubbe 	qp->tx_mw = nt->mw_vec[mw_num].vbase + qp_offset;
1059282a2feeSJon Mason 	if (!qp->tx_mw)
1060282a2feeSJon Mason 		return -EINVAL;
1061793c20e9SJon Mason 
1062e26a5843SAllen Hubbe 	qp->tx_mw_phys = mw_base + qp_offset;
1063282a2feeSJon Mason 	if (!qp->tx_mw_phys)
1064282a2feeSJon Mason 		return -EINVAL;
1065282a2feeSJon Mason 
1066282a2feeSJon Mason 	tx_size -= sizeof(struct ntb_rx_info);
1067282a2feeSJon Mason 	qp->rx_info = qp->tx_mw + tx_size;
1068282a2feeSJon Mason 
1069c9d534c8SJon Mason 	/* Due to housekeeping, there must be atleast 2 buffs */
1070c9d534c8SJon Mason 	qp->tx_max_frame = min(transport_mtu, tx_size / 2);
1071793c20e9SJon Mason 	qp->tx_max_entry = tx_size / qp->tx_max_frame;
1072ef114ed5SJon Mason 
1073c8650fd0SDave Jiang 	if (nt->debugfs_node_dir) {
1074fce8a7bbSJon Mason 		char debugfs_name[4];
1075fce8a7bbSJon Mason 
1076fce8a7bbSJon Mason 		snprintf(debugfs_name, 4, "qp%d", qp_num);
1077fce8a7bbSJon Mason 		qp->debugfs_dir = debugfs_create_dir(debugfs_name,
1078c8650fd0SDave Jiang 						     nt->debugfs_node_dir);
1079fce8a7bbSJon Mason 
1080fce8a7bbSJon Mason 		qp->debugfs_stats = debugfs_create_file("stats", S_IRUSR,
1081fce8a7bbSJon Mason 							qp->debugfs_dir, qp,
1082fce8a7bbSJon Mason 							&ntb_qp_debugfs_stats);
1083e26a5843SAllen Hubbe 	} else {
1084e26a5843SAllen Hubbe 		qp->debugfs_dir = NULL;
1085e26a5843SAllen Hubbe 		qp->debugfs_stats = NULL;
1086fce8a7bbSJon Mason 	}
1087fce8a7bbSJon Mason 
1088fce8a7bbSJon Mason 	INIT_DELAYED_WORK(&qp->link_work, ntb_qp_link_work);
1089fca4d518SJon Mason 	INIT_WORK(&qp->link_cleanup, ntb_qp_link_cleanup_work);
1090fce8a7bbSJon Mason 
1091da2e5ae5SAllen Hubbe 	spin_lock_init(&qp->ntb_rx_q_lock);
1092fce8a7bbSJon Mason 	spin_lock_init(&qp->ntb_tx_free_q_lock);
1093fce8a7bbSJon Mason 
1094da2e5ae5SAllen Hubbe 	INIT_LIST_HEAD(&qp->rx_post_q);
1095fce8a7bbSJon Mason 	INIT_LIST_HEAD(&qp->rx_pend_q);
1096fce8a7bbSJon Mason 	INIT_LIST_HEAD(&qp->rx_free_q);
1097fce8a7bbSJon Mason 	INIT_LIST_HEAD(&qp->tx_free_q);
1098282a2feeSJon Mason 
1099e26a5843SAllen Hubbe 	tasklet_init(&qp->rxc_db_work, ntb_transport_rxc_db,
1100e26a5843SAllen Hubbe 		     (unsigned long)qp);
1101e26a5843SAllen Hubbe 
1102282a2feeSJon Mason 	return 0;
1103fce8a7bbSJon Mason }
1104fce8a7bbSJon Mason 
1105e26a5843SAllen Hubbe static int ntb_transport_probe(struct ntb_client *self, struct ntb_dev *ndev)
1106fce8a7bbSJon Mason {
1107e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt;
1108e26a5843SAllen Hubbe 	struct ntb_transport_mw *mw;
1109b17faba0SShyam Sundar S K 	unsigned int mw_count, qp_count, spad_count, max_mw_count_for_spads;
1110e26a5843SAllen Hubbe 	u64 qp_bitmap;
11111199aa61SAllen Hubbe 	int node;
1112fce8a7bbSJon Mason 	int rc, i;
1113fce8a7bbSJon Mason 
1114bc240eecSLogan Gunthorpe 	mw_count = ntb_peer_mw_count(ndev);
1115443b9a14SSerge Semin 
1116443b9a14SSerge Semin 	if (!ndev->ops->mw_set_trans) {
1117443b9a14SSerge Semin 		dev_err(&ndev->dev, "Inbound MW based NTB API is required\n");
1118443b9a14SSerge Semin 		return -EINVAL;
1119443b9a14SSerge Semin 	}
112019645a07SLogan Gunthorpe 
1121e26a5843SAllen Hubbe 	if (ntb_db_is_unsafe(ndev))
1122e26a5843SAllen Hubbe 		dev_dbg(&ndev->dev,
1123e26a5843SAllen Hubbe 			"doorbell is unsafe, proceed anyway...\n");
1124e26a5843SAllen Hubbe 	if (ntb_spad_is_unsafe(ndev))
1125e26a5843SAllen Hubbe 		dev_dbg(&ndev->dev,
1126e26a5843SAllen Hubbe 			"scratchpad is unsafe, proceed anyway...\n");
1127e26a5843SAllen Hubbe 
11281e530119SSerge Semin 	if (ntb_peer_port_count(ndev) != NTB_DEF_PEER_CNT)
11291e530119SSerge Semin 		dev_warn(&ndev->dev, "Multi-port NTB devices unsupported\n");
11301e530119SSerge Semin 
11311199aa61SAllen Hubbe 	node = dev_to_node(&ndev->dev);
11321199aa61SAllen Hubbe 
11331199aa61SAllen Hubbe 	nt = kzalloc_node(sizeof(*nt), GFP_KERNEL, node);
1134fce8a7bbSJon Mason 	if (!nt)
1135fce8a7bbSJon Mason 		return -ENOMEM;
1136fce8a7bbSJon Mason 
1137e26a5843SAllen Hubbe 	nt->ndev = ndev;
1138b17faba0SShyam Sundar S K 	spad_count = ntb_spad_count(ndev);
1139e26a5843SAllen Hubbe 
1140b17faba0SShyam Sundar S K 	/* Limit the MW's based on the availability of scratchpads */
1141b17faba0SShyam Sundar S K 
1142b17faba0SShyam Sundar S K 	if (spad_count < NTB_TRANSPORT_MIN_SPADS) {
1143b17faba0SShyam Sundar S K 		nt->mw_count = 0;
1144b17faba0SShyam Sundar S K 		rc = -EINVAL;
1145b17faba0SShyam Sundar S K 		goto err;
1146b17faba0SShyam Sundar S K 	}
1147b17faba0SShyam Sundar S K 
1148b17faba0SShyam Sundar S K 	max_mw_count_for_spads = (spad_count - MW0_SZ_HIGH) / 2;
1149b17faba0SShyam Sundar S K 	nt->mw_count = min(mw_count, max_mw_count_for_spads);
1150e26a5843SAllen Hubbe 
1151590b5b7dSKees Cook 	nt->mw_vec = kcalloc_node(mw_count, sizeof(*nt->mw_vec),
11521199aa61SAllen Hubbe 				  GFP_KERNEL, node);
1153e26a5843SAllen Hubbe 	if (!nt->mw_vec) {
1154e26a5843SAllen Hubbe 		rc = -ENOMEM;
1155fce8a7bbSJon Mason 		goto err;
1156fce8a7bbSJon Mason 	}
1157fce8a7bbSJon Mason 
1158e26a5843SAllen Hubbe 	for (i = 0; i < mw_count; i++) {
1159e26a5843SAllen Hubbe 		mw = &nt->mw_vec[i];
1160e26a5843SAllen Hubbe 
1161443b9a14SSerge Semin 		rc = ntb_peer_mw_get_addr(ndev, i, &mw->phys_addr,
1162443b9a14SSerge Semin 					  &mw->phys_size);
1163e26a5843SAllen Hubbe 		if (rc)
1164e26a5843SAllen Hubbe 			goto err1;
1165e26a5843SAllen Hubbe 
116606917f75SDave Jiang 		mw->vbase = ioremap_wc(mw->phys_addr, mw->phys_size);
1167e26a5843SAllen Hubbe 		if (!mw->vbase) {
1168948d3a65SJon Mason 			rc = -ENOMEM;
1169948d3a65SJon Mason 			goto err1;
1170948d3a65SJon Mason 		}
1171948d3a65SJon Mason 
1172e26a5843SAllen Hubbe 		mw->buff_size = 0;
1173e26a5843SAllen Hubbe 		mw->xlat_size = 0;
1174e26a5843SAllen Hubbe 		mw->virt_addr = NULL;
1175e26a5843SAllen Hubbe 		mw->dma_addr = 0;
1176e26a5843SAllen Hubbe 	}
1177fce8a7bbSJon Mason 
1178e26a5843SAllen Hubbe 	qp_bitmap = ntb_db_valid_mask(ndev);
1179e26a5843SAllen Hubbe 
1180e26a5843SAllen Hubbe 	qp_count = ilog2(qp_bitmap);
1181e26a5843SAllen Hubbe 	if (max_num_clients && max_num_clients < qp_count)
1182e26a5843SAllen Hubbe 		qp_count = max_num_clients;
1183cb827ee6SLogan Gunthorpe 	else if (nt->mw_count < qp_count)
1184cb827ee6SLogan Gunthorpe 		qp_count = nt->mw_count;
1185e26a5843SAllen Hubbe 
1186e26a5843SAllen Hubbe 	qp_bitmap &= BIT_ULL(qp_count) - 1;
1187e26a5843SAllen Hubbe 
1188e26a5843SAllen Hubbe 	nt->qp_count = qp_count;
1189e26a5843SAllen Hubbe 	nt->qp_bitmap = qp_bitmap;
1190e26a5843SAllen Hubbe 	nt->qp_bitmap_free = qp_bitmap;
1191e26a5843SAllen Hubbe 
1192590b5b7dSKees Cook 	nt->qp_vec = kcalloc_node(qp_count, sizeof(*nt->qp_vec),
11931199aa61SAllen Hubbe 				  GFP_KERNEL, node);
1194e26a5843SAllen Hubbe 	if (!nt->qp_vec) {
1195fce8a7bbSJon Mason 		rc = -ENOMEM;
1196d4adee09SSudip Mukherjee 		goto err1;
1197fce8a7bbSJon Mason 	}
1198fce8a7bbSJon Mason 
1199c8650fd0SDave Jiang 	if (nt_debugfs_dir) {
1200c8650fd0SDave Jiang 		nt->debugfs_node_dir =
1201c8650fd0SDave Jiang 			debugfs_create_dir(pci_name(ndev->pdev),
1202c8650fd0SDave Jiang 					   nt_debugfs_dir);
1203c8650fd0SDave Jiang 	}
1204c8650fd0SDave Jiang 
1205e26a5843SAllen Hubbe 	for (i = 0; i < qp_count; i++) {
1206282a2feeSJon Mason 		rc = ntb_transport_init_queue(nt, i);
1207282a2feeSJon Mason 		if (rc)
1208d4adee09SSudip Mukherjee 			goto err2;
1209282a2feeSJon Mason 	}
1210fce8a7bbSJon Mason 
1211fce8a7bbSJon Mason 	INIT_DELAYED_WORK(&nt->link_work, ntb_transport_link_work);
1212fca4d518SJon Mason 	INIT_WORK(&nt->link_cleanup, ntb_transport_link_cleanup_work);
1213fce8a7bbSJon Mason 
1214e26a5843SAllen Hubbe 	rc = ntb_set_ctx(ndev, nt, &ntb_transport_ops);
1215fce8a7bbSJon Mason 	if (rc)
1216d4adee09SSudip Mukherjee 		goto err2;
1217fce8a7bbSJon Mason 
1218fce8a7bbSJon Mason 	INIT_LIST_HEAD(&nt->client_devs);
1219fce8a7bbSJon Mason 	rc = ntb_bus_init(nt);
1220fce8a7bbSJon Mason 	if (rc)
1221d4adee09SSudip Mukherjee 		goto err3;
1222fce8a7bbSJon Mason 
1223e26a5843SAllen Hubbe 	nt->link_is_up = false;
1224e26a5843SAllen Hubbe 	ntb_link_enable(ndev, NTB_SPEED_AUTO, NTB_WIDTH_AUTO);
1225e26a5843SAllen Hubbe 	ntb_link_event(ndev);
1226fce8a7bbSJon Mason 
1227fce8a7bbSJon Mason 	return 0;
1228fce8a7bbSJon Mason 
1229948d3a65SJon Mason err3:
1230d4adee09SSudip Mukherjee 	ntb_clear_ctx(ndev);
1231948d3a65SJon Mason err2:
1232d4adee09SSudip Mukherjee 	kfree(nt->qp_vec);
1233fce8a7bbSJon Mason err1:
1234e26a5843SAllen Hubbe 	while (i--) {
1235e26a5843SAllen Hubbe 		mw = &nt->mw_vec[i];
1236e26a5843SAllen Hubbe 		iounmap(mw->vbase);
1237e26a5843SAllen Hubbe 	}
1238d4adee09SSudip Mukherjee 	kfree(nt->mw_vec);
1239fce8a7bbSJon Mason err:
1240fce8a7bbSJon Mason 	kfree(nt);
1241fce8a7bbSJon Mason 	return rc;
1242fce8a7bbSJon Mason }
1243fce8a7bbSJon Mason 
1244e26a5843SAllen Hubbe static void ntb_transport_free(struct ntb_client *self, struct ntb_dev *ndev)
1245fce8a7bbSJon Mason {
1246e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt = ndev->ctx;
1247e26a5843SAllen Hubbe 	struct ntb_transport_qp *qp;
1248e26a5843SAllen Hubbe 	u64 qp_bitmap_alloc;
1249fce8a7bbSJon Mason 	int i;
1250fce8a7bbSJon Mason 
1251fca4d518SJon Mason 	ntb_transport_link_cleanup(nt);
1252e26a5843SAllen Hubbe 	cancel_work_sync(&nt->link_cleanup);
1253e26a5843SAllen Hubbe 	cancel_delayed_work_sync(&nt->link_work);
1254e26a5843SAllen Hubbe 
1255e26a5843SAllen Hubbe 	qp_bitmap_alloc = nt->qp_bitmap & ~nt->qp_bitmap_free;
1256fce8a7bbSJon Mason 
1257fce8a7bbSJon Mason 	/* verify that all the qp's are freed */
1258e26a5843SAllen Hubbe 	for (i = 0; i < nt->qp_count; i++) {
1259e26a5843SAllen Hubbe 		qp = &nt->qp_vec[i];
1260e26a5843SAllen Hubbe 		if (qp_bitmap_alloc & BIT_ULL(i))
1261e26a5843SAllen Hubbe 			ntb_transport_free_queue(qp);
1262e26a5843SAllen Hubbe 		debugfs_remove_recursive(qp->debugfs_dir);
12631517a3f2SJon Mason 	}
1264fce8a7bbSJon Mason 
1265e26a5843SAllen Hubbe 	ntb_link_disable(ndev);
1266e26a5843SAllen Hubbe 	ntb_clear_ctx(ndev);
1267e26a5843SAllen Hubbe 
1268fce8a7bbSJon Mason 	ntb_bus_remove(nt);
1269fce8a7bbSJon Mason 
1270e26a5843SAllen Hubbe 	for (i = nt->mw_count; i--; ) {
1271113fc505SJon Mason 		ntb_free_mw(nt, i);
1272e26a5843SAllen Hubbe 		iounmap(nt->mw_vec[i].vbase);
1273e26a5843SAllen Hubbe 	}
1274fce8a7bbSJon Mason 
1275e26a5843SAllen Hubbe 	kfree(nt->qp_vec);
1276e26a5843SAllen Hubbe 	kfree(nt->mw_vec);
1277fce8a7bbSJon Mason 	kfree(nt);
1278fce8a7bbSJon Mason }
1279fce8a7bbSJon Mason 
1280da2e5ae5SAllen Hubbe static void ntb_complete_rxc(struct ntb_transport_qp *qp)
1281fce8a7bbSJon Mason {
1282da2e5ae5SAllen Hubbe 	struct ntb_queue_entry *entry;
1283da2e5ae5SAllen Hubbe 	void *cb_data;
1284da2e5ae5SAllen Hubbe 	unsigned int len;
1285da2e5ae5SAllen Hubbe 	unsigned long irqflags;
1286448c6fb3SJon Mason 
1287da2e5ae5SAllen Hubbe 	spin_lock_irqsave(&qp->ntb_rx_q_lock, irqflags);
1288282a2feeSJon Mason 
1289da2e5ae5SAllen Hubbe 	while (!list_empty(&qp->rx_post_q)) {
1290da2e5ae5SAllen Hubbe 		entry = list_first_entry(&qp->rx_post_q,
1291da2e5ae5SAllen Hubbe 					 struct ntb_queue_entry, entry);
1292da2e5ae5SAllen Hubbe 		if (!(entry->flags & DESC_DONE_FLAG))
1293da2e5ae5SAllen Hubbe 			break;
1294da2e5ae5SAllen Hubbe 
1295da2e5ae5SAllen Hubbe 		entry->rx_hdr->flags = 0;
129672203572SDave Jiang 		iowrite32(entry->rx_index, &qp->rx_info->entry);
1297fce8a7bbSJon Mason 
1298da2e5ae5SAllen Hubbe 		cb_data = entry->cb_data;
1299da2e5ae5SAllen Hubbe 		len = entry->len;
1300da2e5ae5SAllen Hubbe 
1301da2e5ae5SAllen Hubbe 		list_move_tail(&entry->entry, &qp->rx_free_q);
1302da2e5ae5SAllen Hubbe 
1303da2e5ae5SAllen Hubbe 		spin_unlock_irqrestore(&qp->ntb_rx_q_lock, irqflags);
1304448c6fb3SJon Mason 
1305e26a5843SAllen Hubbe 		if (qp->rx_handler && qp->client_ready)
1306448c6fb3SJon Mason 			qp->rx_handler(qp, qp->cb_data, cb_data, len);
1307da2e5ae5SAllen Hubbe 
1308da2e5ae5SAllen Hubbe 		spin_lock_irqsave(&qp->ntb_rx_q_lock, irqflags);
1309da2e5ae5SAllen Hubbe 	}
1310da2e5ae5SAllen Hubbe 
1311da2e5ae5SAllen Hubbe 	spin_unlock_irqrestore(&qp->ntb_rx_q_lock, irqflags);
1312da2e5ae5SAllen Hubbe }
1313da2e5ae5SAllen Hubbe 
131472203572SDave Jiang static void ntb_rx_copy_callback(void *data,
131572203572SDave Jiang 				 const struct dmaengine_result *res)
1316da2e5ae5SAllen Hubbe {
1317da2e5ae5SAllen Hubbe 	struct ntb_queue_entry *entry = data;
1318da2e5ae5SAllen Hubbe 
131972203572SDave Jiang 	/* we need to check DMA results if we are using DMA */
132072203572SDave Jiang 	if (res) {
132172203572SDave Jiang 		enum dmaengine_tx_result dma_err = res->result;
132272203572SDave Jiang 
132372203572SDave Jiang 		switch (dma_err) {
132472203572SDave Jiang 		case DMA_TRANS_READ_FAILED:
132572203572SDave Jiang 		case DMA_TRANS_WRITE_FAILED:
132672203572SDave Jiang 			entry->errors++;
1327846429bcSGustavo A. R. Silva 			/* fall through */
132872203572SDave Jiang 		case DMA_TRANS_ABORTED:
132972203572SDave Jiang 		{
133072203572SDave Jiang 			struct ntb_transport_qp *qp = entry->qp;
133172203572SDave Jiang 			void *offset = qp->rx_buff + qp->rx_max_frame *
133272203572SDave Jiang 					qp->rx_index;
133372203572SDave Jiang 
133472203572SDave Jiang 			ntb_memcpy_rx(entry, offset);
133572203572SDave Jiang 			qp->rx_memcpy++;
133672203572SDave Jiang 			return;
133772203572SDave Jiang 		}
133872203572SDave Jiang 
133972203572SDave Jiang 		case DMA_TRANS_NOERROR:
134072203572SDave Jiang 		default:
134172203572SDave Jiang 			break;
134272203572SDave Jiang 		}
134372203572SDave Jiang 	}
134472203572SDave Jiang 
1345da2e5ae5SAllen Hubbe 	entry->flags |= DESC_DONE_FLAG;
1346da2e5ae5SAllen Hubbe 
1347da2e5ae5SAllen Hubbe 	ntb_complete_rxc(entry->qp);
1348fce8a7bbSJon Mason }
1349fce8a7bbSJon Mason 
1350282a2feeSJon Mason static void ntb_memcpy_rx(struct ntb_queue_entry *entry, void *offset)
1351282a2feeSJon Mason {
1352282a2feeSJon Mason 	void *buf = entry->buf;
1353282a2feeSJon Mason 	size_t len = entry->len;
1354282a2feeSJon Mason 
1355282a2feeSJon Mason 	memcpy(buf, offset, len);
1356282a2feeSJon Mason 
1357e26a5843SAllen Hubbe 	/* Ensure that the data is fully copied out before clearing the flag */
1358e26a5843SAllen Hubbe 	wmb();
1359e26a5843SAllen Hubbe 
136072203572SDave Jiang 	ntb_rx_copy_callback(entry, NULL);
1361282a2feeSJon Mason }
1362282a2feeSJon Mason 
136372203572SDave Jiang static int ntb_async_rx_submit(struct ntb_queue_entry *entry, void *offset)
1364282a2feeSJon Mason {
1365282a2feeSJon Mason 	struct dma_async_tx_descriptor *txd;
1366282a2feeSJon Mason 	struct ntb_transport_qp *qp = entry->qp;
1367569410caSDave Jiang 	struct dma_chan *chan = qp->rx_dma_chan;
1368282a2feeSJon Mason 	struct dma_device *device;
1369da2e5ae5SAllen Hubbe 	size_t pay_off, buff_off, len;
13706f57fd05SBartlomiej Zolnierkiewicz 	struct dmaengine_unmap_data *unmap;
1371282a2feeSJon Mason 	dma_cookie_t cookie;
1372282a2feeSJon Mason 	void *buf = entry->buf;
1373282a2feeSJon Mason 
1374da2e5ae5SAllen Hubbe 	len = entry->len;
1375282a2feeSJon Mason 	device = chan->device;
1376282a2feeSJon Mason 	pay_off = (size_t)offset & ~PAGE_MASK;
1377282a2feeSJon Mason 	buff_off = (size_t)buf & ~PAGE_MASK;
1378282a2feeSJon Mason 
1379282a2feeSJon Mason 	if (!is_dma_copy_aligned(device, pay_off, buff_off, len))
1380905921e7SAllen Hubbe 		goto err;
1381282a2feeSJon Mason 
13826f57fd05SBartlomiej Zolnierkiewicz 	unmap = dmaengine_get_unmap_data(device->dev, 2, GFP_NOWAIT);
13836f57fd05SBartlomiej Zolnierkiewicz 	if (!unmap)
1384905921e7SAllen Hubbe 		goto err;
1385282a2feeSJon Mason 
13866f57fd05SBartlomiej Zolnierkiewicz 	unmap->len = len;
13876f57fd05SBartlomiej Zolnierkiewicz 	unmap->addr[0] = dma_map_page(device->dev, virt_to_page(offset),
13886f57fd05SBartlomiej Zolnierkiewicz 				      pay_off, len, DMA_TO_DEVICE);
13896f57fd05SBartlomiej Zolnierkiewicz 	if (dma_mapping_error(device->dev, unmap->addr[0]))
13906f57fd05SBartlomiej Zolnierkiewicz 		goto err_get_unmap;
1391282a2feeSJon Mason 
13926f57fd05SBartlomiej Zolnierkiewicz 	unmap->to_cnt = 1;
13936f57fd05SBartlomiej Zolnierkiewicz 
13946f57fd05SBartlomiej Zolnierkiewicz 	unmap->addr[1] = dma_map_page(device->dev, virt_to_page(buf),
13956f57fd05SBartlomiej Zolnierkiewicz 				      buff_off, len, DMA_FROM_DEVICE);
13966f57fd05SBartlomiej Zolnierkiewicz 	if (dma_mapping_error(device->dev, unmap->addr[1]))
13976f57fd05SBartlomiej Zolnierkiewicz 		goto err_get_unmap;
13986f57fd05SBartlomiej Zolnierkiewicz 
13996f57fd05SBartlomiej Zolnierkiewicz 	unmap->from_cnt = 1;
14006f57fd05SBartlomiej Zolnierkiewicz 
140188931ec3SAllen Hubbe 	txd = device->device_prep_dma_memcpy(chan, unmap->addr[1],
14020776ae7bSBartlomiej Zolnierkiewicz 					     unmap->addr[0], len,
14030776ae7bSBartlomiej Zolnierkiewicz 					     DMA_PREP_INTERRUPT);
140488931ec3SAllen Hubbe 	if (!txd)
14056f57fd05SBartlomiej Zolnierkiewicz 		goto err_get_unmap;
1406282a2feeSJon Mason 
140772203572SDave Jiang 	txd->callback_result = ntb_rx_copy_callback;
1408282a2feeSJon Mason 	txd->callback_param = entry;
14096f57fd05SBartlomiej Zolnierkiewicz 	dma_set_unmap(txd, unmap);
1410282a2feeSJon Mason 
1411282a2feeSJon Mason 	cookie = dmaengine_submit(txd);
1412282a2feeSJon Mason 	if (dma_submit_error(cookie))
14136f57fd05SBartlomiej Zolnierkiewicz 		goto err_set_unmap;
14146f57fd05SBartlomiej Zolnierkiewicz 
14156f57fd05SBartlomiej Zolnierkiewicz 	dmaengine_unmap_put(unmap);
1416282a2feeSJon Mason 
1417282a2feeSJon Mason 	qp->last_cookie = cookie;
1418282a2feeSJon Mason 
1419282a2feeSJon Mason 	qp->rx_async++;
1420282a2feeSJon Mason 
142172203572SDave Jiang 	return 0;
1422282a2feeSJon Mason 
14236f57fd05SBartlomiej Zolnierkiewicz err_set_unmap:
14246f57fd05SBartlomiej Zolnierkiewicz 	dmaengine_unmap_put(unmap);
14256f57fd05SBartlomiej Zolnierkiewicz err_get_unmap:
14266f57fd05SBartlomiej Zolnierkiewicz 	dmaengine_unmap_put(unmap);
1427282a2feeSJon Mason err:
142872203572SDave Jiang 	return -ENXIO;
142972203572SDave Jiang }
143072203572SDave Jiang 
143172203572SDave Jiang static void ntb_async_rx(struct ntb_queue_entry *entry, void *offset)
143272203572SDave Jiang {
143372203572SDave Jiang 	struct ntb_transport_qp *qp = entry->qp;
143472203572SDave Jiang 	struct dma_chan *chan = qp->rx_dma_chan;
143572203572SDave Jiang 	int res;
143672203572SDave Jiang 
143772203572SDave Jiang 	if (!chan)
143872203572SDave Jiang 		goto err;
143972203572SDave Jiang 
144072203572SDave Jiang 	if (entry->len < copy_bytes)
144172203572SDave Jiang 		goto err;
144272203572SDave Jiang 
144372203572SDave Jiang 	res = ntb_async_rx_submit(entry, offset);
144472203572SDave Jiang 	if (res < 0)
144572203572SDave Jiang 		goto err;
144672203572SDave Jiang 
144772203572SDave Jiang 	if (!entry->retries)
144872203572SDave Jiang 		qp->rx_async++;
144972203572SDave Jiang 
145072203572SDave Jiang 	return;
145172203572SDave Jiang 
145272203572SDave Jiang err:
1453282a2feeSJon Mason 	ntb_memcpy_rx(entry, offset);
1454282a2feeSJon Mason 	qp->rx_memcpy++;
1455282a2feeSJon Mason }
1456282a2feeSJon Mason 
1457fce8a7bbSJon Mason static int ntb_process_rxc(struct ntb_transport_qp *qp)
1458fce8a7bbSJon Mason {
1459fce8a7bbSJon Mason 	struct ntb_payload_header *hdr;
1460fce8a7bbSJon Mason 	struct ntb_queue_entry *entry;
1461fce8a7bbSJon Mason 	void *offset;
1462fce8a7bbSJon Mason 
1463793c20e9SJon Mason 	offset = qp->rx_buff + qp->rx_max_frame * qp->rx_index;
1464793c20e9SJon Mason 	hdr = offset + qp->rx_max_frame - sizeof(struct ntb_payload_header);
1465793c20e9SJon Mason 
1466e26a5843SAllen Hubbe 	dev_dbg(&qp->ndev->pdev->dev, "qp %d: RX ver %u len %d flags %x\n",
1467e26a5843SAllen Hubbe 		qp->qp_num, hdr->ver, hdr->len, hdr->flags);
1468fce8a7bbSJon Mason 
1469fce8a7bbSJon Mason 	if (!(hdr->flags & DESC_DONE_FLAG)) {
1470e26a5843SAllen Hubbe 		dev_dbg(&qp->ndev->pdev->dev, "done flag not set\n");
1471fce8a7bbSJon Mason 		qp->rx_ring_empty++;
1472fce8a7bbSJon Mason 		return -EAGAIN;
1473fce8a7bbSJon Mason 	}
1474fce8a7bbSJon Mason 
1475e26a5843SAllen Hubbe 	if (hdr->flags & LINK_DOWN_FLAG) {
1476e26a5843SAllen Hubbe 		dev_dbg(&qp->ndev->pdev->dev, "link down flag set\n");
1477e26a5843SAllen Hubbe 		ntb_qp_link_down(qp);
1478e26a5843SAllen Hubbe 		hdr->flags = 0;
1479c0900b33SAllen Hubbe 		return -EAGAIN;
1480e26a5843SAllen Hubbe 	}
1481e26a5843SAllen Hubbe 
148274465645SJon Mason 	if (hdr->ver != (u32)qp->rx_pkts) {
1483e26a5843SAllen Hubbe 		dev_dbg(&qp->ndev->pdev->dev,
1484e26a5843SAllen Hubbe 			"version mismatch, expected %llu - got %u\n",
1485e26a5843SAllen Hubbe 			qp->rx_pkts, hdr->ver);
1486fce8a7bbSJon Mason 		qp->rx_err_ver++;
1487fce8a7bbSJon Mason 		return -EIO;
1488fce8a7bbSJon Mason 	}
1489fce8a7bbSJon Mason 
1490da2e5ae5SAllen Hubbe 	entry = ntb_list_mv(&qp->ntb_rx_q_lock, &qp->rx_pend_q, &qp->rx_post_q);
1491e26a5843SAllen Hubbe 	if (!entry) {
1492e26a5843SAllen Hubbe 		dev_dbg(&qp->ndev->pdev->dev, "no receive buffer\n");
1493e26a5843SAllen Hubbe 		qp->rx_err_no_buf++;
1494da2e5ae5SAllen Hubbe 		return -EAGAIN;
1495fce8a7bbSJon Mason 	}
1496fce8a7bbSJon Mason 
1497da2e5ae5SAllen Hubbe 	entry->rx_hdr = hdr;
149872203572SDave Jiang 	entry->rx_index = qp->rx_index;
1499da2e5ae5SAllen Hubbe 
1500e26a5843SAllen Hubbe 	if (hdr->len > entry->len) {
1501e26a5843SAllen Hubbe 		dev_dbg(&qp->ndev->pdev->dev,
1502e26a5843SAllen Hubbe 			"receive buffer overflow! Wanted %d got %d\n",
1503e26a5843SAllen Hubbe 			hdr->len, entry->len);
1504e26a5843SAllen Hubbe 		qp->rx_err_oflow++;
1505e26a5843SAllen Hubbe 
1506da2e5ae5SAllen Hubbe 		entry->len = -EIO;
1507da2e5ae5SAllen Hubbe 		entry->flags |= DESC_DONE_FLAG;
1508e26a5843SAllen Hubbe 
1509da2e5ae5SAllen Hubbe 		ntb_complete_rxc(qp);
1510da2e5ae5SAllen Hubbe 	} else {
1511e26a5843SAllen Hubbe 		dev_dbg(&qp->ndev->pdev->dev,
1512e26a5843SAllen Hubbe 			"RX OK index %u ver %u size %d into buf size %d\n",
1513793c20e9SJon Mason 			qp->rx_index, hdr->ver, hdr->len, entry->len);
1514fce8a7bbSJon Mason 
1515282a2feeSJon Mason 		qp->rx_bytes += hdr->len;
1516282a2feeSJon Mason 		qp->rx_pkts++;
1517fce8a7bbSJon Mason 
1518da2e5ae5SAllen Hubbe 		entry->len = hdr->len;
1519282a2feeSJon Mason 
1520da2e5ae5SAllen Hubbe 		ntb_async_rx(entry, offset);
1521da2e5ae5SAllen Hubbe 	}
1522fce8a7bbSJon Mason 
1523282a2feeSJon Mason 	qp->rx_index++;
1524282a2feeSJon Mason 	qp->rx_index %= qp->rx_max_entry;
1525282a2feeSJon Mason 
1526282a2feeSJon Mason 	return 0;
1527fce8a7bbSJon Mason }
1528fce8a7bbSJon Mason 
1529e26a5843SAllen Hubbe static void ntb_transport_rxc_db(unsigned long data)
1530fce8a7bbSJon Mason {
1531e26a5843SAllen Hubbe 	struct ntb_transport_qp *qp = (void *)data;
1532c336acd3SJon Mason 	int rc, i;
1533fce8a7bbSJon Mason 
1534e26a5843SAllen Hubbe 	dev_dbg(&qp->ndev->pdev->dev, "%s: doorbell %d received\n",
1535e26a5843SAllen Hubbe 		__func__, qp->qp_num);
1536e8aeb60cSJon Mason 
1537c336acd3SJon Mason 	/* Limit the number of packets processed in a single interrupt to
1538c336acd3SJon Mason 	 * provide fairness to others
1539c336acd3SJon Mason 	 */
1540c336acd3SJon Mason 	for (i = 0; i < qp->rx_max_entry; i++) {
1541fce8a7bbSJon Mason 		rc = ntb_process_rxc(qp);
1542c336acd3SJon Mason 		if (rc)
1543c336acd3SJon Mason 			break;
1544c336acd3SJon Mason 	}
1545282a2feeSJon Mason 
1546569410caSDave Jiang 	if (i && qp->rx_dma_chan)
1547569410caSDave Jiang 		dma_async_issue_pending(qp->rx_dma_chan);
1548fce8a7bbSJon Mason 
1549e26a5843SAllen Hubbe 	if (i == qp->rx_max_entry) {
1550e26a5843SAllen Hubbe 		/* there is more work to do */
1551e9021331SDave Jiang 		if (qp->active)
1552e26a5843SAllen Hubbe 			tasklet_schedule(&qp->rxc_db_work);
1553e26a5843SAllen Hubbe 	} else if (ntb_db_read(qp->ndev) & BIT_ULL(qp->qp_num)) {
1554e26a5843SAllen Hubbe 		/* the doorbell bit is set: clear it */
1555e26a5843SAllen Hubbe 		ntb_db_clear(qp->ndev, BIT_ULL(qp->qp_num));
1556e26a5843SAllen Hubbe 		/* ntb_db_read ensures ntb_db_clear write is committed */
1557e26a5843SAllen Hubbe 		ntb_db_read(qp->ndev);
1558e26a5843SAllen Hubbe 
1559e26a5843SAllen Hubbe 		/* an interrupt may have arrived between finishing
1560e26a5843SAllen Hubbe 		 * ntb_process_rxc and clearing the doorbell bit:
1561e26a5843SAllen Hubbe 		 * there might be some more work to do.
1562e26a5843SAllen Hubbe 		 */
1563e9021331SDave Jiang 		if (qp->active)
1564e26a5843SAllen Hubbe 			tasklet_schedule(&qp->rxc_db_work);
1565e26a5843SAllen Hubbe 	}
1566fce8a7bbSJon Mason }
1567fce8a7bbSJon Mason 
15689cabc269SDave Jiang static void ntb_tx_copy_callback(void *data,
15699cabc269SDave Jiang 				 const struct dmaengine_result *res)
1570fce8a7bbSJon Mason {
1571282a2feeSJon Mason 	struct ntb_queue_entry *entry = data;
1572282a2feeSJon Mason 	struct ntb_transport_qp *qp = entry->qp;
1573282a2feeSJon Mason 	struct ntb_payload_header __iomem *hdr = entry->tx_hdr;
1574fce8a7bbSJon Mason 
15759cabc269SDave Jiang 	/* we need to check DMA results if we are using DMA */
15769cabc269SDave Jiang 	if (res) {
15779cabc269SDave Jiang 		enum dmaengine_tx_result dma_err = res->result;
15789cabc269SDave Jiang 
15799cabc269SDave Jiang 		switch (dma_err) {
15809cabc269SDave Jiang 		case DMA_TRANS_READ_FAILED:
15819cabc269SDave Jiang 		case DMA_TRANS_WRITE_FAILED:
15829cabc269SDave Jiang 			entry->errors++;
1583846429bcSGustavo A. R. Silva 			/* fall through */
15849cabc269SDave Jiang 		case DMA_TRANS_ABORTED:
15859cabc269SDave Jiang 		{
15869cabc269SDave Jiang 			void __iomem *offset =
15879cabc269SDave Jiang 				qp->tx_mw + qp->tx_max_frame *
15889cabc269SDave Jiang 				entry->tx_index;
15899cabc269SDave Jiang 
15909cabc269SDave Jiang 			/* resubmit via CPU */
15919cabc269SDave Jiang 			ntb_memcpy_tx(entry, offset);
15929cabc269SDave Jiang 			qp->tx_memcpy++;
15939cabc269SDave Jiang 			return;
15949cabc269SDave Jiang 		}
15959cabc269SDave Jiang 
15969cabc269SDave Jiang 		case DMA_TRANS_NOERROR:
15979cabc269SDave Jiang 		default:
15989cabc269SDave Jiang 			break;
15999cabc269SDave Jiang 		}
16009cabc269SDave Jiang 	}
16019cabc269SDave Jiang 
160274465645SJon Mason 	iowrite32(entry->flags | DESC_DONE_FLAG, &hdr->flags);
1603fce8a7bbSJon Mason 
1604e26a5843SAllen Hubbe 	ntb_peer_db_set(qp->ndev, BIT_ULL(qp->qp_num));
1605fce8a7bbSJon Mason 
1606fce8a7bbSJon Mason 	/* The entry length can only be zero if the packet is intended to be a
1607fce8a7bbSJon Mason 	 * "link down" or similar.  Since no payload is being sent in these
1608fce8a7bbSJon Mason 	 * cases, there is nothing to add to the completion queue.
1609fce8a7bbSJon Mason 	 */
1610fce8a7bbSJon Mason 	if (entry->len > 0) {
1611fce8a7bbSJon Mason 		qp->tx_bytes += entry->len;
1612fce8a7bbSJon Mason 
1613fce8a7bbSJon Mason 		if (qp->tx_handler)
1614fce8a7bbSJon Mason 			qp->tx_handler(qp, qp->cb_data, entry->cb_data,
1615fce8a7bbSJon Mason 				       entry->len);
1616fce8a7bbSJon Mason 	}
1617fce8a7bbSJon Mason 
1618fce8a7bbSJon Mason 	ntb_list_add(&qp->ntb_tx_free_q_lock, &entry->entry, &qp->tx_free_q);
1619fce8a7bbSJon Mason }
1620fce8a7bbSJon Mason 
1621282a2feeSJon Mason static void ntb_memcpy_tx(struct ntb_queue_entry *entry, void __iomem *offset)
1622282a2feeSJon Mason {
162306917f75SDave Jiang #ifdef ARCH_HAS_NOCACHE_UACCESS
162406917f75SDave Jiang 	/*
162506917f75SDave Jiang 	 * Using non-temporal mov to improve performance on non-cached
162606917f75SDave Jiang 	 * writes, even though we aren't actually copying from user space.
162706917f75SDave Jiang 	 */
162806917f75SDave Jiang 	__copy_from_user_inatomic_nocache(offset, entry->buf, entry->len);
162906917f75SDave Jiang #else
1630282a2feeSJon Mason 	memcpy_toio(offset, entry->buf, entry->len);
163106917f75SDave Jiang #endif
1632282a2feeSJon Mason 
1633e26a5843SAllen Hubbe 	/* Ensure that the data is fully copied out before setting the flags */
1634e26a5843SAllen Hubbe 	wmb();
1635e26a5843SAllen Hubbe 
16369cabc269SDave Jiang 	ntb_tx_copy_callback(entry, NULL);
1637282a2feeSJon Mason }
1638282a2feeSJon Mason 
16399cabc269SDave Jiang static int ntb_async_tx_submit(struct ntb_transport_qp *qp,
1640282a2feeSJon Mason 			       struct ntb_queue_entry *entry)
1641282a2feeSJon Mason {
1642282a2feeSJon Mason 	struct dma_async_tx_descriptor *txd;
1643569410caSDave Jiang 	struct dma_chan *chan = qp->tx_dma_chan;
1644282a2feeSJon Mason 	struct dma_device *device;
16459cabc269SDave Jiang 	size_t len = entry->len;
16469cabc269SDave Jiang 	void *buf = entry->buf;
1647282a2feeSJon Mason 	size_t dest_off, buff_off;
16486f57fd05SBartlomiej Zolnierkiewicz 	struct dmaengine_unmap_data *unmap;
16496f57fd05SBartlomiej Zolnierkiewicz 	dma_addr_t dest;
1650282a2feeSJon Mason 	dma_cookie_t cookie;
1651282a2feeSJon Mason 
1652282a2feeSJon Mason 	device = chan->device;
1653c59666bbSLogan Gunthorpe 	dest = qp->tx_mw_dma_addr + qp->tx_max_frame * entry->tx_index;
1654282a2feeSJon Mason 	buff_off = (size_t)buf & ~PAGE_MASK;
1655282a2feeSJon Mason 	dest_off = (size_t)dest & ~PAGE_MASK;
1656282a2feeSJon Mason 
1657282a2feeSJon Mason 	if (!is_dma_copy_aligned(device, buff_off, dest_off, len))
1658282a2feeSJon Mason 		goto err;
1659282a2feeSJon Mason 
16606f57fd05SBartlomiej Zolnierkiewicz 	unmap = dmaengine_get_unmap_data(device->dev, 1, GFP_NOWAIT);
16616f57fd05SBartlomiej Zolnierkiewicz 	if (!unmap)
1662282a2feeSJon Mason 		goto err;
1663282a2feeSJon Mason 
16646f57fd05SBartlomiej Zolnierkiewicz 	unmap->len = len;
16656f57fd05SBartlomiej Zolnierkiewicz 	unmap->addr[0] = dma_map_page(device->dev, virt_to_page(buf),
16666f57fd05SBartlomiej Zolnierkiewicz 				      buff_off, len, DMA_TO_DEVICE);
16676f57fd05SBartlomiej Zolnierkiewicz 	if (dma_mapping_error(device->dev, unmap->addr[0]))
16686f57fd05SBartlomiej Zolnierkiewicz 		goto err_get_unmap;
16696f57fd05SBartlomiej Zolnierkiewicz 
16706f57fd05SBartlomiej Zolnierkiewicz 	unmap->to_cnt = 1;
16716f57fd05SBartlomiej Zolnierkiewicz 
167288931ec3SAllen Hubbe 	txd = device->device_prep_dma_memcpy(chan, dest, unmap->addr[0], len,
16739cabc269SDave Jiang 					     DMA_PREP_INTERRUPT);
167488931ec3SAllen Hubbe 	if (!txd)
16756f57fd05SBartlomiej Zolnierkiewicz 		goto err_get_unmap;
1676282a2feeSJon Mason 
16779cabc269SDave Jiang 	txd->callback_result = ntb_tx_copy_callback;
1678282a2feeSJon Mason 	txd->callback_param = entry;
16796f57fd05SBartlomiej Zolnierkiewicz 	dma_set_unmap(txd, unmap);
1680282a2feeSJon Mason 
1681282a2feeSJon Mason 	cookie = dmaengine_submit(txd);
1682282a2feeSJon Mason 	if (dma_submit_error(cookie))
16836f57fd05SBartlomiej Zolnierkiewicz 		goto err_set_unmap;
16846f57fd05SBartlomiej Zolnierkiewicz 
16856f57fd05SBartlomiej Zolnierkiewicz 	dmaengine_unmap_put(unmap);
1686282a2feeSJon Mason 
1687282a2feeSJon Mason 	dma_async_issue_pending(chan);
1688282a2feeSJon Mason 
16899cabc269SDave Jiang 	return 0;
16906f57fd05SBartlomiej Zolnierkiewicz err_set_unmap:
16916f57fd05SBartlomiej Zolnierkiewicz 	dmaengine_unmap_put(unmap);
16926f57fd05SBartlomiej Zolnierkiewicz err_get_unmap:
16936f57fd05SBartlomiej Zolnierkiewicz 	dmaengine_unmap_put(unmap);
1694282a2feeSJon Mason err:
16959cabc269SDave Jiang 	return -ENXIO;
16969cabc269SDave Jiang }
16979cabc269SDave Jiang 
16989cabc269SDave Jiang static void ntb_async_tx(struct ntb_transport_qp *qp,
16999cabc269SDave Jiang 			 struct ntb_queue_entry *entry)
17009cabc269SDave Jiang {
17019cabc269SDave Jiang 	struct ntb_payload_header __iomem *hdr;
17029cabc269SDave Jiang 	struct dma_chan *chan = qp->tx_dma_chan;
17039cabc269SDave Jiang 	void __iomem *offset;
17049cabc269SDave Jiang 	int res;
17059cabc269SDave Jiang 
17069cabc269SDave Jiang 	entry->tx_index = qp->tx_index;
17079cabc269SDave Jiang 	offset = qp->tx_mw + qp->tx_max_frame * entry->tx_index;
17089cabc269SDave Jiang 	hdr = offset + qp->tx_max_frame - sizeof(struct ntb_payload_header);
17099cabc269SDave Jiang 	entry->tx_hdr = hdr;
17109cabc269SDave Jiang 
17119cabc269SDave Jiang 	iowrite32(entry->len, &hdr->len);
17129cabc269SDave Jiang 	iowrite32((u32)qp->tx_pkts, &hdr->ver);
17139cabc269SDave Jiang 
17149cabc269SDave Jiang 	if (!chan)
17159cabc269SDave Jiang 		goto err;
17169cabc269SDave Jiang 
17179cabc269SDave Jiang 	if (entry->len < copy_bytes)
17189cabc269SDave Jiang 		goto err;
17199cabc269SDave Jiang 
17209cabc269SDave Jiang 	res = ntb_async_tx_submit(qp, entry);
17219cabc269SDave Jiang 	if (res < 0)
17229cabc269SDave Jiang 		goto err;
17239cabc269SDave Jiang 
17249cabc269SDave Jiang 	if (!entry->retries)
17259cabc269SDave Jiang 		qp->tx_async++;
17269cabc269SDave Jiang 
17279cabc269SDave Jiang 	return;
17289cabc269SDave Jiang 
17299cabc269SDave Jiang err:
1730282a2feeSJon Mason 	ntb_memcpy_tx(entry, offset);
1731282a2feeSJon Mason 	qp->tx_memcpy++;
1732282a2feeSJon Mason }
1733282a2feeSJon Mason 
1734fce8a7bbSJon Mason static int ntb_process_tx(struct ntb_transport_qp *qp,
1735fce8a7bbSJon Mason 			  struct ntb_queue_entry *entry)
1736fce8a7bbSJon Mason {
1737793c20e9SJon Mason 	if (qp->tx_index == qp->remote_rx_info->entry) {
1738fce8a7bbSJon Mason 		qp->tx_ring_full++;
1739fce8a7bbSJon Mason 		return -EAGAIN;
1740fce8a7bbSJon Mason 	}
1741fce8a7bbSJon Mason 
1742ef114ed5SJon Mason 	if (entry->len > qp->tx_max_frame - sizeof(struct ntb_payload_header)) {
1743fce8a7bbSJon Mason 		if (qp->tx_handler)
1744179f912aSJon Mason 			qp->tx_handler(qp, qp->cb_data, NULL, -EIO);
1745fce8a7bbSJon Mason 
1746fce8a7bbSJon Mason 		ntb_list_add(&qp->ntb_tx_free_q_lock, &entry->entry,
1747fce8a7bbSJon Mason 			     &qp->tx_free_q);
1748fce8a7bbSJon Mason 		return 0;
1749fce8a7bbSJon Mason 	}
1750fce8a7bbSJon Mason 
1751282a2feeSJon Mason 	ntb_async_tx(qp, entry);
1752fce8a7bbSJon Mason 
1753793c20e9SJon Mason 	qp->tx_index++;
1754793c20e9SJon Mason 	qp->tx_index %= qp->tx_max_entry;
1755fce8a7bbSJon Mason 
1756fce8a7bbSJon Mason 	qp->tx_pkts++;
1757fce8a7bbSJon Mason 
1758fce8a7bbSJon Mason 	return 0;
1759fce8a7bbSJon Mason }
1760fce8a7bbSJon Mason 
1761fce8a7bbSJon Mason static void ntb_send_link_down(struct ntb_transport_qp *qp)
1762fce8a7bbSJon Mason {
1763e26a5843SAllen Hubbe 	struct pci_dev *pdev = qp->ndev->pdev;
1764fce8a7bbSJon Mason 	struct ntb_queue_entry *entry;
1765fce8a7bbSJon Mason 	int i, rc;
1766fce8a7bbSJon Mason 
1767e26a5843SAllen Hubbe 	if (!qp->link_is_up)
1768fce8a7bbSJon Mason 		return;
1769fce8a7bbSJon Mason 
1770e22e0b9dSAllen Hubbe 	dev_info(&pdev->dev, "qp %d: Send Link Down\n", qp->qp_num);
1771fce8a7bbSJon Mason 
1772fce8a7bbSJon Mason 	for (i = 0; i < NTB_LINK_DOWN_TIMEOUT; i++) {
1773f766755cSJon Mason 		entry = ntb_list_rm(&qp->ntb_tx_free_q_lock, &qp->tx_free_q);
1774fce8a7bbSJon Mason 		if (entry)
1775fce8a7bbSJon Mason 			break;
1776fce8a7bbSJon Mason 		msleep(100);
1777fce8a7bbSJon Mason 	}
1778fce8a7bbSJon Mason 
1779fce8a7bbSJon Mason 	if (!entry)
1780fce8a7bbSJon Mason 		return;
1781fce8a7bbSJon Mason 
1782fce8a7bbSJon Mason 	entry->cb_data = NULL;
1783fce8a7bbSJon Mason 	entry->buf = NULL;
1784fce8a7bbSJon Mason 	entry->len = 0;
1785fce8a7bbSJon Mason 	entry->flags = LINK_DOWN_FLAG;
1786fce8a7bbSJon Mason 
1787fce8a7bbSJon Mason 	rc = ntb_process_tx(qp, entry);
1788fce8a7bbSJon Mason 	if (rc)
1789fce8a7bbSJon Mason 		dev_err(&pdev->dev, "ntb: QP%d unable to send linkdown msg\n",
1790fce8a7bbSJon Mason 			qp->qp_num);
17912849b5d7SAllen Hubbe 
17922849b5d7SAllen Hubbe 	ntb_qp_link_down_reset(qp);
1793fce8a7bbSJon Mason }
1794fce8a7bbSJon Mason 
17951199aa61SAllen Hubbe static bool ntb_dma_filter_fn(struct dma_chan *chan, void *node)
17961199aa61SAllen Hubbe {
17971199aa61SAllen Hubbe 	return dev_to_node(&chan->dev->device) == (int)(unsigned long)node;
17981199aa61SAllen Hubbe }
17991199aa61SAllen Hubbe 
1800fce8a7bbSJon Mason /**
1801fce8a7bbSJon Mason  * ntb_transport_create_queue - Create a new NTB transport layer queue
1802fce8a7bbSJon Mason  * @rx_handler: receive callback function
1803fce8a7bbSJon Mason  * @tx_handler: transmit callback function
1804fce8a7bbSJon Mason  * @event_handler: event callback function
1805fce8a7bbSJon Mason  *
1806fce8a7bbSJon Mason  * Create a new NTB transport layer queue and provide the queue with a callback
1807fce8a7bbSJon Mason  * routine for both transmit and receive.  The receive callback routine will be
1808fce8a7bbSJon Mason  * used to pass up data when the transport has received it on the queue.   The
1809fce8a7bbSJon Mason  * transmit callback routine will be called when the transport has completed the
1810fce8a7bbSJon Mason  * transmission of the data on the queue and the data is ready to be freed.
1811fce8a7bbSJon Mason  *
1812fce8a7bbSJon Mason  * RETURNS: pointer to newly created ntb_queue, NULL on error.
1813fce8a7bbSJon Mason  */
1814fce8a7bbSJon Mason struct ntb_transport_qp *
1815e26a5843SAllen Hubbe ntb_transport_create_queue(void *data, struct device *client_dev,
1816fce8a7bbSJon Mason 			   const struct ntb_queue_handlers *handlers)
1817fce8a7bbSJon Mason {
1818e26a5843SAllen Hubbe 	struct ntb_dev *ndev;
1819e26a5843SAllen Hubbe 	struct pci_dev *pdev;
1820e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt;
1821fce8a7bbSJon Mason 	struct ntb_queue_entry *entry;
1822fce8a7bbSJon Mason 	struct ntb_transport_qp *qp;
1823e26a5843SAllen Hubbe 	u64 qp_bit;
1824fce8a7bbSJon Mason 	unsigned int free_queue;
18251199aa61SAllen Hubbe 	dma_cap_mask_t dma_mask;
18261199aa61SAllen Hubbe 	int node;
1827e26a5843SAllen Hubbe 	int i;
1828fce8a7bbSJon Mason 
1829e26a5843SAllen Hubbe 	ndev = dev_ntb(client_dev->parent);
1830e26a5843SAllen Hubbe 	pdev = ndev->pdev;
1831e26a5843SAllen Hubbe 	nt = ndev->ctx;
1832fce8a7bbSJon Mason 
18331199aa61SAllen Hubbe 	node = dev_to_node(&ndev->dev);
18341199aa61SAllen Hubbe 
18358fcd0950SThomas VanSelus 	free_queue = ffs(nt->qp_bitmap_free);
1836fce8a7bbSJon Mason 	if (!free_queue)
1837fce8a7bbSJon Mason 		goto err;
1838fce8a7bbSJon Mason 
1839fce8a7bbSJon Mason 	/* decrement free_queue to make it zero based */
1840fce8a7bbSJon Mason 	free_queue--;
1841fce8a7bbSJon Mason 
1842e26a5843SAllen Hubbe 	qp = &nt->qp_vec[free_queue];
1843e26a5843SAllen Hubbe 	qp_bit = BIT_ULL(qp->qp_num);
1844fce8a7bbSJon Mason 
1845e26a5843SAllen Hubbe 	nt->qp_bitmap_free &= ~qp_bit;
1846e26a5843SAllen Hubbe 
1847fce8a7bbSJon Mason 	qp->cb_data = data;
1848fce8a7bbSJon Mason 	qp->rx_handler = handlers->rx_handler;
1849fce8a7bbSJon Mason 	qp->tx_handler = handlers->tx_handler;
1850fce8a7bbSJon Mason 	qp->event_handler = handlers->event_handler;
1851fce8a7bbSJon Mason 
18521199aa61SAllen Hubbe 	dma_cap_zero(dma_mask);
18531199aa61SAllen Hubbe 	dma_cap_set(DMA_MEMCPY, dma_mask);
18541199aa61SAllen Hubbe 
1855a41ef053SDave Jiang 	if (use_dma) {
1856569410caSDave Jiang 		qp->tx_dma_chan =
1857569410caSDave Jiang 			dma_request_channel(dma_mask, ntb_dma_filter_fn,
18581199aa61SAllen Hubbe 					    (void *)(unsigned long)node);
1859569410caSDave Jiang 		if (!qp->tx_dma_chan)
1860569410caSDave Jiang 			dev_info(&pdev->dev, "Unable to allocate TX DMA channel\n");
1861569410caSDave Jiang 
1862569410caSDave Jiang 		qp->rx_dma_chan =
1863569410caSDave Jiang 			dma_request_channel(dma_mask, ntb_dma_filter_fn,
1864569410caSDave Jiang 					    (void *)(unsigned long)node);
1865569410caSDave Jiang 		if (!qp->rx_dma_chan)
1866569410caSDave Jiang 			dev_info(&pdev->dev, "Unable to allocate RX DMA channel\n");
1867a41ef053SDave Jiang 	} else {
1868569410caSDave Jiang 		qp->tx_dma_chan = NULL;
1869569410caSDave Jiang 		qp->rx_dma_chan = NULL;
1870a41ef053SDave Jiang 	}
1871569410caSDave Jiang 
1872*51cb8dbfSLogan Gunthorpe 	qp->tx_mw_dma_addr = 0;
1873c59666bbSLogan Gunthorpe 	if (qp->tx_dma_chan) {
1874c59666bbSLogan Gunthorpe 		qp->tx_mw_dma_addr =
1875c59666bbSLogan Gunthorpe 			dma_map_resource(qp->tx_dma_chan->device->dev,
1876c59666bbSLogan Gunthorpe 					 qp->tx_mw_phys, qp->tx_mw_size,
1877c59666bbSLogan Gunthorpe 					 DMA_FROM_DEVICE, 0);
1878c59666bbSLogan Gunthorpe 		if (dma_mapping_error(qp->tx_dma_chan->device->dev,
1879c59666bbSLogan Gunthorpe 				      qp->tx_mw_dma_addr)) {
1880c59666bbSLogan Gunthorpe 			qp->tx_mw_dma_addr = 0;
1881c59666bbSLogan Gunthorpe 			goto err1;
1882c59666bbSLogan Gunthorpe 		}
1883c59666bbSLogan Gunthorpe 	}
1884c59666bbSLogan Gunthorpe 
1885569410caSDave Jiang 	dev_dbg(&pdev->dev, "Using %s memcpy for TX\n",
1886569410caSDave Jiang 		qp->tx_dma_chan ? "DMA" : "CPU");
1887569410caSDave Jiang 
1888569410caSDave Jiang 	dev_dbg(&pdev->dev, "Using %s memcpy for RX\n",
1889569410caSDave Jiang 		qp->rx_dma_chan ? "DMA" : "CPU");
1890282a2feeSJon Mason 
1891fce8a7bbSJon Mason 	for (i = 0; i < NTB_QP_DEF_NUM_ENTRIES; i++) {
1892c9160b69SJia-Ju Bai 		entry = kzalloc_node(sizeof(*entry), GFP_KERNEL, node);
1893fce8a7bbSJon Mason 		if (!entry)
1894fce8a7bbSJon Mason 			goto err1;
1895fce8a7bbSJon Mason 
1896282a2feeSJon Mason 		entry->qp = qp;
1897da2e5ae5SAllen Hubbe 		ntb_list_add(&qp->ntb_rx_q_lock, &entry->entry,
1898fce8a7bbSJon Mason 			     &qp->rx_free_q);
1899fce8a7bbSJon Mason 	}
1900a754a8fcSDave Jiang 	qp->rx_alloc_entry = NTB_QP_DEF_NUM_ENTRIES;
1901fce8a7bbSJon Mason 
1902a754a8fcSDave Jiang 	for (i = 0; i < qp->tx_max_entry; i++) {
1903c9160b69SJia-Ju Bai 		entry = kzalloc_node(sizeof(*entry), GFP_KERNEL, node);
1904fce8a7bbSJon Mason 		if (!entry)
1905fce8a7bbSJon Mason 			goto err2;
1906fce8a7bbSJon Mason 
1907282a2feeSJon Mason 		entry->qp = qp;
1908fce8a7bbSJon Mason 		ntb_list_add(&qp->ntb_tx_free_q_lock, &entry->entry,
1909fce8a7bbSJon Mason 			     &qp->tx_free_q);
1910fce8a7bbSJon Mason 	}
1911fce8a7bbSJon Mason 
1912e26a5843SAllen Hubbe 	ntb_db_clear(qp->ndev, qp_bit);
1913e26a5843SAllen Hubbe 	ntb_db_clear_mask(qp->ndev, qp_bit);
1914fce8a7bbSJon Mason 
1915fce8a7bbSJon Mason 	dev_info(&pdev->dev, "NTB Transport QP %d created\n", qp->qp_num);
1916fce8a7bbSJon Mason 
1917fce8a7bbSJon Mason 	return qp;
1918fce8a7bbSJon Mason 
1919fce8a7bbSJon Mason err2:
1920f766755cSJon Mason 	while ((entry = ntb_list_rm(&qp->ntb_tx_free_q_lock, &qp->tx_free_q)))
1921fce8a7bbSJon Mason 		kfree(entry);
1922fce8a7bbSJon Mason err1:
1923a754a8fcSDave Jiang 	qp->rx_alloc_entry = 0;
1924da2e5ae5SAllen Hubbe 	while ((entry = ntb_list_rm(&qp->ntb_rx_q_lock, &qp->rx_free_q)))
1925fce8a7bbSJon Mason 		kfree(entry);
1926c59666bbSLogan Gunthorpe 	if (qp->tx_mw_dma_addr)
1927c59666bbSLogan Gunthorpe 		dma_unmap_resource(qp->tx_dma_chan->device->dev,
1928c59666bbSLogan Gunthorpe 				   qp->tx_mw_dma_addr, qp->tx_mw_size,
1929c59666bbSLogan Gunthorpe 				   DMA_FROM_DEVICE, 0);
1930569410caSDave Jiang 	if (qp->tx_dma_chan)
1931569410caSDave Jiang 		dma_release_channel(qp->tx_dma_chan);
1932569410caSDave Jiang 	if (qp->rx_dma_chan)
1933569410caSDave Jiang 		dma_release_channel(qp->rx_dma_chan);
1934e26a5843SAllen Hubbe 	nt->qp_bitmap_free |= qp_bit;
1935fce8a7bbSJon Mason err:
1936fce8a7bbSJon Mason 	return NULL;
1937fce8a7bbSJon Mason }
1938fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_create_queue);
1939fce8a7bbSJon Mason 
1940fce8a7bbSJon Mason /**
1941fce8a7bbSJon Mason  * ntb_transport_free_queue - Frees NTB transport queue
1942fce8a7bbSJon Mason  * @qp: NTB queue to be freed
1943fce8a7bbSJon Mason  *
1944fce8a7bbSJon Mason  * Frees NTB transport queue
1945fce8a7bbSJon Mason  */
1946fce8a7bbSJon Mason void ntb_transport_free_queue(struct ntb_transport_qp *qp)
1947fce8a7bbSJon Mason {
1948186f27ffSJon Mason 	struct pci_dev *pdev;
1949fce8a7bbSJon Mason 	struct ntb_queue_entry *entry;
1950e26a5843SAllen Hubbe 	u64 qp_bit;
1951fce8a7bbSJon Mason 
1952fce8a7bbSJon Mason 	if (!qp)
1953fce8a7bbSJon Mason 		return;
1954fce8a7bbSJon Mason 
1955e26a5843SAllen Hubbe 	pdev = qp->ndev->pdev;
1956186f27ffSJon Mason 
1957e9021331SDave Jiang 	qp->active = false;
1958e9021331SDave Jiang 
1959569410caSDave Jiang 	if (qp->tx_dma_chan) {
1960569410caSDave Jiang 		struct dma_chan *chan = qp->tx_dma_chan;
1961282a2feeSJon Mason 		/* Putting the dma_chan to NULL will force any new traffic to be
1962282a2feeSJon Mason 		 * processed by the CPU instead of the DAM engine
1963282a2feeSJon Mason 		 */
1964569410caSDave Jiang 		qp->tx_dma_chan = NULL;
1965569410caSDave Jiang 
1966569410caSDave Jiang 		/* Try to be nice and wait for any queued DMA engine
1967569410caSDave Jiang 		 * transactions to process before smashing it with a rock
1968569410caSDave Jiang 		 */
1969569410caSDave Jiang 		dma_sync_wait(chan, qp->last_cookie);
1970569410caSDave Jiang 		dmaengine_terminate_all(chan);
1971c59666bbSLogan Gunthorpe 
1972c59666bbSLogan Gunthorpe 		dma_unmap_resource(chan->device->dev,
1973c59666bbSLogan Gunthorpe 				   qp->tx_mw_dma_addr, qp->tx_mw_size,
1974c59666bbSLogan Gunthorpe 				   DMA_FROM_DEVICE, 0);
1975c59666bbSLogan Gunthorpe 
1976569410caSDave Jiang 		dma_release_channel(chan);
1977569410caSDave Jiang 	}
1978569410caSDave Jiang 
1979569410caSDave Jiang 	if (qp->rx_dma_chan) {
1980569410caSDave Jiang 		struct dma_chan *chan = qp->rx_dma_chan;
1981569410caSDave Jiang 		/* Putting the dma_chan to NULL will force any new traffic to be
1982569410caSDave Jiang 		 * processed by the CPU instead of the DAM engine
1983569410caSDave Jiang 		 */
1984569410caSDave Jiang 		qp->rx_dma_chan = NULL;
1985282a2feeSJon Mason 
1986282a2feeSJon Mason 		/* Try to be nice and wait for any queued DMA engine
1987282a2feeSJon Mason 		 * transactions to process before smashing it with a rock
1988282a2feeSJon Mason 		 */
1989282a2feeSJon Mason 		dma_sync_wait(chan, qp->last_cookie);
1990282a2feeSJon Mason 		dmaengine_terminate_all(chan);
19911199aa61SAllen Hubbe 		dma_release_channel(chan);
1992282a2feeSJon Mason 	}
1993fce8a7bbSJon Mason 
1994e26a5843SAllen Hubbe 	qp_bit = BIT_ULL(qp->qp_num);
1995e26a5843SAllen Hubbe 
1996e26a5843SAllen Hubbe 	ntb_db_set_mask(qp->ndev, qp_bit);
1997e9021331SDave Jiang 	tasklet_kill(&qp->rxc_db_work);
1998fce8a7bbSJon Mason 
1999282a2feeSJon Mason 	cancel_delayed_work_sync(&qp->link_work);
2000282a2feeSJon Mason 
2001e26a5843SAllen Hubbe 	qp->cb_data = NULL;
2002e26a5843SAllen Hubbe 	qp->rx_handler = NULL;
2003e26a5843SAllen Hubbe 	qp->tx_handler = NULL;
2004e26a5843SAllen Hubbe 	qp->event_handler = NULL;
2005e26a5843SAllen Hubbe 
2006da2e5ae5SAllen Hubbe 	while ((entry = ntb_list_rm(&qp->ntb_rx_q_lock, &qp->rx_free_q)))
2007fce8a7bbSJon Mason 		kfree(entry);
2008fce8a7bbSJon Mason 
2009da2e5ae5SAllen Hubbe 	while ((entry = ntb_list_rm(&qp->ntb_rx_q_lock, &qp->rx_pend_q))) {
2010da2e5ae5SAllen Hubbe 		dev_warn(&pdev->dev, "Freeing item from non-empty rx_pend_q\n");
2011da2e5ae5SAllen Hubbe 		kfree(entry);
2012da2e5ae5SAllen Hubbe 	}
2013da2e5ae5SAllen Hubbe 
2014da2e5ae5SAllen Hubbe 	while ((entry = ntb_list_rm(&qp->ntb_rx_q_lock, &qp->rx_post_q))) {
2015da2e5ae5SAllen Hubbe 		dev_warn(&pdev->dev, "Freeing item from non-empty rx_post_q\n");
2016fce8a7bbSJon Mason 		kfree(entry);
2017fce8a7bbSJon Mason 	}
2018fce8a7bbSJon Mason 
2019f766755cSJon Mason 	while ((entry = ntb_list_rm(&qp->ntb_tx_free_q_lock, &qp->tx_free_q)))
2020fce8a7bbSJon Mason 		kfree(entry);
2021fce8a7bbSJon Mason 
202230a4bb1eSAllen Hubbe 	qp->transport->qp_bitmap_free |= qp_bit;
2023fce8a7bbSJon Mason 
2024fce8a7bbSJon Mason 	dev_info(&pdev->dev, "NTB Transport QP %d freed\n", qp->qp_num);
2025fce8a7bbSJon Mason }
2026fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_free_queue);
2027fce8a7bbSJon Mason 
2028fce8a7bbSJon Mason /**
2029fce8a7bbSJon Mason  * ntb_transport_rx_remove - Dequeues enqueued rx packet
2030fce8a7bbSJon Mason  * @qp: NTB queue to be freed
2031fce8a7bbSJon Mason  * @len: pointer to variable to write enqueued buffers length
2032fce8a7bbSJon Mason  *
2033fce8a7bbSJon Mason  * Dequeues unused buffers from receive queue.  Should only be used during
2034fce8a7bbSJon Mason  * shutdown of qp.
2035fce8a7bbSJon Mason  *
2036fce8a7bbSJon Mason  * RETURNS: NULL error value on error, or void* for success.
2037fce8a7bbSJon Mason  */
2038fce8a7bbSJon Mason void *ntb_transport_rx_remove(struct ntb_transport_qp *qp, unsigned int *len)
2039fce8a7bbSJon Mason {
2040fce8a7bbSJon Mason 	struct ntb_queue_entry *entry;
2041fce8a7bbSJon Mason 	void *buf;
2042fce8a7bbSJon Mason 
2043e26a5843SAllen Hubbe 	if (!qp || qp->client_ready)
2044fce8a7bbSJon Mason 		return NULL;
2045fce8a7bbSJon Mason 
2046da2e5ae5SAllen Hubbe 	entry = ntb_list_rm(&qp->ntb_rx_q_lock, &qp->rx_pend_q);
2047fce8a7bbSJon Mason 	if (!entry)
2048fce8a7bbSJon Mason 		return NULL;
2049fce8a7bbSJon Mason 
2050fce8a7bbSJon Mason 	buf = entry->cb_data;
2051fce8a7bbSJon Mason 	*len = entry->len;
2052fce8a7bbSJon Mason 
2053da2e5ae5SAllen Hubbe 	ntb_list_add(&qp->ntb_rx_q_lock, &entry->entry, &qp->rx_free_q);
2054fce8a7bbSJon Mason 
2055fce8a7bbSJon Mason 	return buf;
2056fce8a7bbSJon Mason }
2057fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_rx_remove);
2058fce8a7bbSJon Mason 
2059fce8a7bbSJon Mason /**
2060fce8a7bbSJon Mason  * ntb_transport_rx_enqueue - Enqueue a new NTB queue entry
2061fce8a7bbSJon Mason  * @qp: NTB transport layer queue the entry is to be enqueued on
2062fce8a7bbSJon Mason  * @cb: per buffer pointer for callback function to use
2063fce8a7bbSJon Mason  * @data: pointer to data buffer that incoming packets will be copied into
2064fce8a7bbSJon Mason  * @len: length of the data buffer
2065fce8a7bbSJon Mason  *
2066fce8a7bbSJon Mason  * Enqueue a new receive buffer onto the transport queue into which a NTB
2067fce8a7bbSJon Mason  * payload can be received into.
2068fce8a7bbSJon Mason  *
2069fce8a7bbSJon Mason  * RETURNS: An appropriate -ERRNO error value on error, or zero for success.
2070fce8a7bbSJon Mason  */
2071fce8a7bbSJon Mason int ntb_transport_rx_enqueue(struct ntb_transport_qp *qp, void *cb, void *data,
2072fce8a7bbSJon Mason 			     unsigned int len)
2073fce8a7bbSJon Mason {
2074fce8a7bbSJon Mason 	struct ntb_queue_entry *entry;
2075fce8a7bbSJon Mason 
2076fce8a7bbSJon Mason 	if (!qp)
2077fce8a7bbSJon Mason 		return -EINVAL;
2078fce8a7bbSJon Mason 
2079da2e5ae5SAllen Hubbe 	entry = ntb_list_rm(&qp->ntb_rx_q_lock, &qp->rx_free_q);
2080fce8a7bbSJon Mason 	if (!entry)
2081fce8a7bbSJon Mason 		return -ENOMEM;
2082fce8a7bbSJon Mason 
2083fce8a7bbSJon Mason 	entry->cb_data = cb;
2084fce8a7bbSJon Mason 	entry->buf = data;
2085fce8a7bbSJon Mason 	entry->len = len;
2086da2e5ae5SAllen Hubbe 	entry->flags = 0;
208772203572SDave Jiang 	entry->retries = 0;
208872203572SDave Jiang 	entry->errors = 0;
208972203572SDave Jiang 	entry->rx_index = 0;
2090fce8a7bbSJon Mason 
2091da2e5ae5SAllen Hubbe 	ntb_list_add(&qp->ntb_rx_q_lock, &entry->entry, &qp->rx_pend_q);
2092da2e5ae5SAllen Hubbe 
2093e9021331SDave Jiang 	if (qp->active)
2094da2e5ae5SAllen Hubbe 		tasklet_schedule(&qp->rxc_db_work);
2095fce8a7bbSJon Mason 
2096fce8a7bbSJon Mason 	return 0;
2097fce8a7bbSJon Mason }
2098fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_rx_enqueue);
2099fce8a7bbSJon Mason 
2100fce8a7bbSJon Mason /**
2101fce8a7bbSJon Mason  * ntb_transport_tx_enqueue - Enqueue a new NTB queue entry
2102fce8a7bbSJon Mason  * @qp: NTB transport layer queue the entry is to be enqueued on
2103fce8a7bbSJon Mason  * @cb: per buffer pointer for callback function to use
2104fce8a7bbSJon Mason  * @data: pointer to data buffer that will be sent
2105fce8a7bbSJon Mason  * @len: length of the data buffer
2106fce8a7bbSJon Mason  *
2107fce8a7bbSJon Mason  * Enqueue a new transmit buffer onto the transport queue from which a NTB
2108f9a2cf89SJon Mason  * payload will be transmitted.  This assumes that a lock is being held to
2109fce8a7bbSJon Mason  * serialize access to the qp.
2110fce8a7bbSJon Mason  *
2111fce8a7bbSJon Mason  * RETURNS: An appropriate -ERRNO error value on error, or zero for success.
2112fce8a7bbSJon Mason  */
2113fce8a7bbSJon Mason int ntb_transport_tx_enqueue(struct ntb_transport_qp *qp, void *cb, void *data,
2114fce8a7bbSJon Mason 			     unsigned int len)
2115fce8a7bbSJon Mason {
2116fce8a7bbSJon Mason 	struct ntb_queue_entry *entry;
2117fce8a7bbSJon Mason 	int rc;
2118fce8a7bbSJon Mason 
2119e26a5843SAllen Hubbe 	if (!qp || !qp->link_is_up || !len)
2120fce8a7bbSJon Mason 		return -EINVAL;
2121fce8a7bbSJon Mason 
2122fce8a7bbSJon Mason 	entry = ntb_list_rm(&qp->ntb_tx_free_q_lock, &qp->tx_free_q);
2123282a2feeSJon Mason 	if (!entry) {
2124282a2feeSJon Mason 		qp->tx_err_no_buf++;
2125e74bfeedSDave Jiang 		return -EBUSY;
2126282a2feeSJon Mason 	}
2127fce8a7bbSJon Mason 
2128fce8a7bbSJon Mason 	entry->cb_data = cb;
2129fce8a7bbSJon Mason 	entry->buf = data;
2130fce8a7bbSJon Mason 	entry->len = len;
2131fce8a7bbSJon Mason 	entry->flags = 0;
21329cabc269SDave Jiang 	entry->errors = 0;
21339cabc269SDave Jiang 	entry->retries = 0;
21349cabc269SDave Jiang 	entry->tx_index = 0;
2135fce8a7bbSJon Mason 
2136fce8a7bbSJon Mason 	rc = ntb_process_tx(qp, entry);
2137fce8a7bbSJon Mason 	if (rc)
2138fce8a7bbSJon Mason 		ntb_list_add(&qp->ntb_tx_free_q_lock, &entry->entry,
2139fce8a7bbSJon Mason 			     &qp->tx_free_q);
2140fce8a7bbSJon Mason 
2141fce8a7bbSJon Mason 	return rc;
2142fce8a7bbSJon Mason }
2143fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_tx_enqueue);
2144fce8a7bbSJon Mason 
2145fce8a7bbSJon Mason /**
2146fce8a7bbSJon Mason  * ntb_transport_link_up - Notify NTB transport of client readiness to use queue
2147fce8a7bbSJon Mason  * @qp: NTB transport layer queue to be enabled
2148fce8a7bbSJon Mason  *
2149fce8a7bbSJon Mason  * Notify NTB transport layer of client readiness to use queue
2150fce8a7bbSJon Mason  */
2151fce8a7bbSJon Mason void ntb_transport_link_up(struct ntb_transport_qp *qp)
2152fce8a7bbSJon Mason {
2153fce8a7bbSJon Mason 	if (!qp)
2154fce8a7bbSJon Mason 		return;
2155fce8a7bbSJon Mason 
2156e26a5843SAllen Hubbe 	qp->client_ready = true;
2157fce8a7bbSJon Mason 
2158e26a5843SAllen Hubbe 	if (qp->transport->link_is_up)
2159fce8a7bbSJon Mason 		schedule_delayed_work(&qp->link_work, 0);
2160fce8a7bbSJon Mason }
2161fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_link_up);
2162fce8a7bbSJon Mason 
2163fce8a7bbSJon Mason /**
2164fce8a7bbSJon Mason  * ntb_transport_link_down - Notify NTB transport to no longer enqueue data
2165fce8a7bbSJon Mason  * @qp: NTB transport layer queue to be disabled
2166fce8a7bbSJon Mason  *
2167fce8a7bbSJon Mason  * Notify NTB transport layer of client's desire to no longer receive data on
2168fce8a7bbSJon Mason  * transport queue specified.  It is the client's responsibility to ensure all
2169f9a2cf89SJon Mason  * entries on queue are purged or otherwise handled appropriately.
2170fce8a7bbSJon Mason  */
2171fce8a7bbSJon Mason void ntb_transport_link_down(struct ntb_transport_qp *qp)
2172fce8a7bbSJon Mason {
2173e26a5843SAllen Hubbe 	int val;
2174fce8a7bbSJon Mason 
2175fce8a7bbSJon Mason 	if (!qp)
2176fce8a7bbSJon Mason 		return;
2177fce8a7bbSJon Mason 
2178e26a5843SAllen Hubbe 	qp->client_ready = false;
2179fce8a7bbSJon Mason 
2180e26a5843SAllen Hubbe 	val = ntb_spad_read(qp->ndev, QP_LINKS);
2181fce8a7bbSJon Mason 
2182d67288a3SSerge Semin 	ntb_peer_spad_write(qp->ndev, PIDX, QP_LINKS, val & ~BIT(qp->qp_num));
2183fce8a7bbSJon Mason 
2184e26a5843SAllen Hubbe 	if (qp->link_is_up)
2185fce8a7bbSJon Mason 		ntb_send_link_down(qp);
2186fce8a7bbSJon Mason 	else
2187fce8a7bbSJon Mason 		cancel_delayed_work_sync(&qp->link_work);
2188fce8a7bbSJon Mason }
2189fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_link_down);
2190fce8a7bbSJon Mason 
2191fce8a7bbSJon Mason /**
2192fce8a7bbSJon Mason  * ntb_transport_link_query - Query transport link state
2193fce8a7bbSJon Mason  * @qp: NTB transport layer queue to be queried
2194fce8a7bbSJon Mason  *
2195fce8a7bbSJon Mason  * Query connectivity to the remote system of the NTB transport queue
2196fce8a7bbSJon Mason  *
2197fce8a7bbSJon Mason  * RETURNS: true for link up or false for link down
2198fce8a7bbSJon Mason  */
2199fce8a7bbSJon Mason bool ntb_transport_link_query(struct ntb_transport_qp *qp)
2200fce8a7bbSJon Mason {
2201186f27ffSJon Mason 	if (!qp)
2202186f27ffSJon Mason 		return false;
2203186f27ffSJon Mason 
2204e26a5843SAllen Hubbe 	return qp->link_is_up;
2205fce8a7bbSJon Mason }
2206fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_link_query);
2207fce8a7bbSJon Mason 
2208fce8a7bbSJon Mason /**
2209fce8a7bbSJon Mason  * ntb_transport_qp_num - Query the qp number
2210fce8a7bbSJon Mason  * @qp: NTB transport layer queue to be queried
2211fce8a7bbSJon Mason  *
2212fce8a7bbSJon Mason  * Query qp number of the NTB transport queue
2213fce8a7bbSJon Mason  *
2214fce8a7bbSJon Mason  * RETURNS: a zero based number specifying the qp number
2215fce8a7bbSJon Mason  */
2216fce8a7bbSJon Mason unsigned char ntb_transport_qp_num(struct ntb_transport_qp *qp)
2217fce8a7bbSJon Mason {
2218186f27ffSJon Mason 	if (!qp)
2219186f27ffSJon Mason 		return 0;
2220186f27ffSJon Mason 
2221fce8a7bbSJon Mason 	return qp->qp_num;
2222fce8a7bbSJon Mason }
2223fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_qp_num);
2224fce8a7bbSJon Mason 
2225fce8a7bbSJon Mason /**
2226fce8a7bbSJon Mason  * ntb_transport_max_size - Query the max payload size of a qp
2227fce8a7bbSJon Mason  * @qp: NTB transport layer queue to be queried
2228fce8a7bbSJon Mason  *
2229fce8a7bbSJon Mason  * Query the maximum payload size permissible on the given qp
2230fce8a7bbSJon Mason  *
2231fce8a7bbSJon Mason  * RETURNS: the max payload size of a qp
2232fce8a7bbSJon Mason  */
2233ef114ed5SJon Mason unsigned int ntb_transport_max_size(struct ntb_transport_qp *qp)
2234fce8a7bbSJon Mason {
223504afde45SDave Jiang 	unsigned int max_size;
2236569410caSDave Jiang 	unsigned int copy_align;
223704afde45SDave Jiang 	struct dma_chan *rx_chan, *tx_chan;
2238282a2feeSJon Mason 
2239186f27ffSJon Mason 	if (!qp)
2240186f27ffSJon Mason 		return 0;
2241186f27ffSJon Mason 
224204afde45SDave Jiang 	rx_chan = qp->rx_dma_chan;
224304afde45SDave Jiang 	tx_chan = qp->tx_dma_chan;
2244282a2feeSJon Mason 
224504afde45SDave Jiang 	copy_align = max(rx_chan ? rx_chan->device->copy_align : 0,
224604afde45SDave Jiang 			 tx_chan ? tx_chan->device->copy_align : 0);
2247569410caSDave Jiang 
2248282a2feeSJon Mason 	/* If DMA engine usage is possible, try to find the max size for that */
224904afde45SDave Jiang 	max_size = qp->tx_max_frame - sizeof(struct ntb_payload_header);
225004afde45SDave Jiang 	max_size = round_down(max_size, 1 << copy_align);
2251282a2feeSJon Mason 
225204afde45SDave Jiang 	return max_size;
2253fce8a7bbSJon Mason }
2254fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_max_size);
2255e26a5843SAllen Hubbe 
2256e74bfeedSDave Jiang unsigned int ntb_transport_tx_free_entry(struct ntb_transport_qp *qp)
2257e74bfeedSDave Jiang {
2258e74bfeedSDave Jiang 	unsigned int head = qp->tx_index;
2259e74bfeedSDave Jiang 	unsigned int tail = qp->remote_rx_info->entry;
2260e74bfeedSDave Jiang 
2261e74bfeedSDave Jiang 	return tail > head ? tail - head : qp->tx_max_entry + tail - head;
2262e74bfeedSDave Jiang }
2263e74bfeedSDave Jiang EXPORT_SYMBOL_GPL(ntb_transport_tx_free_entry);
2264e74bfeedSDave Jiang 
2265e26a5843SAllen Hubbe static void ntb_transport_doorbell_callback(void *data, int vector)
2266e26a5843SAllen Hubbe {
2267e26a5843SAllen Hubbe 	struct ntb_transport_ctx *nt = data;
2268e26a5843SAllen Hubbe 	struct ntb_transport_qp *qp;
2269e26a5843SAllen Hubbe 	u64 db_bits;
2270e26a5843SAllen Hubbe 	unsigned int qp_num;
2271e26a5843SAllen Hubbe 
2272e26a5843SAllen Hubbe 	db_bits = (nt->qp_bitmap & ~nt->qp_bitmap_free &
2273e26a5843SAllen Hubbe 		   ntb_db_vector_mask(nt->ndev, vector));
2274e26a5843SAllen Hubbe 
2275e26a5843SAllen Hubbe 	while (db_bits) {
2276e26a5843SAllen Hubbe 		qp_num = __ffs(db_bits);
2277e26a5843SAllen Hubbe 		qp = &nt->qp_vec[qp_num];
2278e26a5843SAllen Hubbe 
2279e9021331SDave Jiang 		if (qp->active)
2280e26a5843SAllen Hubbe 			tasklet_schedule(&qp->rxc_db_work);
2281e26a5843SAllen Hubbe 
2282e26a5843SAllen Hubbe 		db_bits &= ~BIT_ULL(qp_num);
2283e26a5843SAllen Hubbe 	}
2284e26a5843SAllen Hubbe }
2285e26a5843SAllen Hubbe 
2286e26a5843SAllen Hubbe static const struct ntb_ctx_ops ntb_transport_ops = {
2287e26a5843SAllen Hubbe 	.link_event = ntb_transport_event_callback,
2288e26a5843SAllen Hubbe 	.db_event = ntb_transport_doorbell_callback,
2289e26a5843SAllen Hubbe };
2290e26a5843SAllen Hubbe 
2291e26a5843SAllen Hubbe static struct ntb_client ntb_transport_client = {
2292e26a5843SAllen Hubbe 	.ops = {
2293e26a5843SAllen Hubbe 		.probe = ntb_transport_probe,
2294e26a5843SAllen Hubbe 		.remove = ntb_transport_free,
2295e26a5843SAllen Hubbe 	},
2296e26a5843SAllen Hubbe };
2297e26a5843SAllen Hubbe 
2298e26a5843SAllen Hubbe static int __init ntb_transport_init(void)
2299e26a5843SAllen Hubbe {
2300e26a5843SAllen Hubbe 	int rc;
2301e26a5843SAllen Hubbe 
23027eb38781SDave Jiang 	pr_info("%s, version %s\n", NTB_TRANSPORT_DESC, NTB_TRANSPORT_VER);
23037eb38781SDave Jiang 
2304e26a5843SAllen Hubbe 	if (debugfs_initialized())
2305e26a5843SAllen Hubbe 		nt_debugfs_dir = debugfs_create_dir(KBUILD_MODNAME, NULL);
2306e26a5843SAllen Hubbe 
2307e26a5843SAllen Hubbe 	rc = bus_register(&ntb_transport_bus);
2308e26a5843SAllen Hubbe 	if (rc)
2309e26a5843SAllen Hubbe 		goto err_bus;
2310e26a5843SAllen Hubbe 
2311e26a5843SAllen Hubbe 	rc = ntb_register_client(&ntb_transport_client);
2312e26a5843SAllen Hubbe 	if (rc)
2313e26a5843SAllen Hubbe 		goto err_client;
2314e26a5843SAllen Hubbe 
2315e26a5843SAllen Hubbe 	return 0;
2316e26a5843SAllen Hubbe 
2317e26a5843SAllen Hubbe err_client:
2318e26a5843SAllen Hubbe 	bus_unregister(&ntb_transport_bus);
2319e26a5843SAllen Hubbe err_bus:
2320e26a5843SAllen Hubbe 	debugfs_remove_recursive(nt_debugfs_dir);
2321e26a5843SAllen Hubbe 	return rc;
2322e26a5843SAllen Hubbe }
2323e26a5843SAllen Hubbe module_init(ntb_transport_init);
2324e26a5843SAllen Hubbe 
2325e26a5843SAllen Hubbe static void __exit ntb_transport_exit(void)
2326e26a5843SAllen Hubbe {
2327e26a5843SAllen Hubbe 	ntb_unregister_client(&ntb_transport_client);
2328e26a5843SAllen Hubbe 	bus_unregister(&ntb_transport_bus);
2329dd62245eSAllen Hubbe 	debugfs_remove_recursive(nt_debugfs_dir);
2330e26a5843SAllen Hubbe }
2331e26a5843SAllen Hubbe module_exit(ntb_transport_exit);
2332