1fce8a7bbSJon Mason /* 2fce8a7bbSJon Mason * This file is provided under a dual BSD/GPLv2 license. When using or 3fce8a7bbSJon Mason * redistributing this file, you may do so under either license. 4fce8a7bbSJon Mason * 5fce8a7bbSJon Mason * GPL LICENSE SUMMARY 6fce8a7bbSJon Mason * 7fce8a7bbSJon Mason * Copyright(c) 2012 Intel Corporation. All rights reserved. 8fce8a7bbSJon Mason * 9fce8a7bbSJon Mason * This program is free software; you can redistribute it and/or modify 10fce8a7bbSJon Mason * it under the terms of version 2 of the GNU General Public License as 11fce8a7bbSJon Mason * published by the Free Software Foundation. 12fce8a7bbSJon Mason * 13fce8a7bbSJon Mason * BSD LICENSE 14fce8a7bbSJon Mason * 15fce8a7bbSJon Mason * Copyright(c) 2012 Intel Corporation. All rights reserved. 16fce8a7bbSJon Mason * 17fce8a7bbSJon Mason * Redistribution and use in source and binary forms, with or without 18fce8a7bbSJon Mason * modification, are permitted provided that the following conditions 19fce8a7bbSJon Mason * are met: 20fce8a7bbSJon Mason * 21fce8a7bbSJon Mason * * Redistributions of source code must retain the above copyright 22fce8a7bbSJon Mason * notice, this list of conditions and the following disclaimer. 23fce8a7bbSJon Mason * * Redistributions in binary form must reproduce the above copy 24fce8a7bbSJon Mason * notice, this list of conditions and the following disclaimer in 25fce8a7bbSJon Mason * the documentation and/or other materials provided with the 26fce8a7bbSJon Mason * distribution. 27fce8a7bbSJon Mason * * Neither the name of Intel Corporation nor the names of its 28fce8a7bbSJon Mason * contributors may be used to endorse or promote products derived 29fce8a7bbSJon Mason * from this software without specific prior written permission. 30fce8a7bbSJon Mason * 31fce8a7bbSJon Mason * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS 32fce8a7bbSJon Mason * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT 33fce8a7bbSJon Mason * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR 34fce8a7bbSJon Mason * A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT 35fce8a7bbSJon Mason * OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, 36fce8a7bbSJon Mason * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT 37fce8a7bbSJon Mason * LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, 38fce8a7bbSJon Mason * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY 39fce8a7bbSJon Mason * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT 40fce8a7bbSJon Mason * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE 41fce8a7bbSJon Mason * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. 42fce8a7bbSJon Mason * 43fce8a7bbSJon Mason * Intel PCIe NTB Linux driver 44fce8a7bbSJon Mason * 45fce8a7bbSJon Mason * Contact Information: 46fce8a7bbSJon Mason * Jon Mason <jon.mason@intel.com> 47fce8a7bbSJon Mason */ 48fce8a7bbSJon Mason #include <linux/debugfs.h> 49fce8a7bbSJon Mason #include <linux/delay.h> 50*282a2feeSJon Mason #include <linux/dmaengine.h> 51fce8a7bbSJon Mason #include <linux/dma-mapping.h> 52fce8a7bbSJon Mason #include <linux/errno.h> 53fce8a7bbSJon Mason #include <linux/export.h> 54fce8a7bbSJon Mason #include <linux/interrupt.h> 55fce8a7bbSJon Mason #include <linux/module.h> 56fce8a7bbSJon Mason #include <linux/pci.h> 57fce8a7bbSJon Mason #include <linux/slab.h> 58fce8a7bbSJon Mason #include <linux/types.h> 59fce8a7bbSJon Mason #include <linux/ntb.h> 60fce8a7bbSJon Mason #include "ntb_hw.h" 61fce8a7bbSJon Mason 62113fc505SJon Mason #define NTB_TRANSPORT_VERSION 3 63fce8a7bbSJon Mason 64ef114ed5SJon Mason static unsigned int transport_mtu = 0x401E; 65fce8a7bbSJon Mason module_param(transport_mtu, uint, 0644); 66fce8a7bbSJon Mason MODULE_PARM_DESC(transport_mtu, "Maximum size of NTB transport packets"); 67fce8a7bbSJon Mason 68948d3a65SJon Mason static unsigned char max_num_clients; 69fce8a7bbSJon Mason module_param(max_num_clients, byte, 0644); 70fce8a7bbSJon Mason MODULE_PARM_DESC(max_num_clients, "Maximum number of NTB transport clients"); 71fce8a7bbSJon Mason 72*282a2feeSJon Mason static unsigned int copy_bytes = 1024; 73*282a2feeSJon Mason module_param(copy_bytes, uint, 0644); 74*282a2feeSJon Mason MODULE_PARM_DESC(copy_bytes, "Threshold under which NTB will use the CPU to copy instead of DMA"); 75*282a2feeSJon Mason 76fce8a7bbSJon Mason struct ntb_queue_entry { 77fce8a7bbSJon Mason /* ntb_queue list reference */ 78fce8a7bbSJon Mason struct list_head entry; 79fce8a7bbSJon Mason /* pointers to data to be transfered */ 80fce8a7bbSJon Mason void *cb_data; 81fce8a7bbSJon Mason void *buf; 82fce8a7bbSJon Mason unsigned int len; 83fce8a7bbSJon Mason unsigned int flags; 84*282a2feeSJon Mason 85*282a2feeSJon Mason struct ntb_transport_qp *qp; 86*282a2feeSJon Mason union { 87*282a2feeSJon Mason struct ntb_payload_header __iomem *tx_hdr; 88*282a2feeSJon Mason struct ntb_payload_header *rx_hdr; 89*282a2feeSJon Mason }; 90*282a2feeSJon Mason unsigned int index; 91fce8a7bbSJon Mason }; 92fce8a7bbSJon Mason 93793c20e9SJon Mason struct ntb_rx_info { 94793c20e9SJon Mason unsigned int entry; 95793c20e9SJon Mason }; 96793c20e9SJon Mason 97fce8a7bbSJon Mason struct ntb_transport_qp { 98fce8a7bbSJon Mason struct ntb_transport *transport; 99fce8a7bbSJon Mason struct ntb_device *ndev; 100fce8a7bbSJon Mason void *cb_data; 101*282a2feeSJon Mason struct dma_chan *dma_chan; 102fce8a7bbSJon Mason 103fce8a7bbSJon Mason bool client_ready; 104fce8a7bbSJon Mason bool qp_link; 105fce8a7bbSJon Mason u8 qp_num; /* Only 64 QP's are allowed. 0-63 */ 106fce8a7bbSJon Mason 10774465645SJon Mason struct ntb_rx_info __iomem *rx_info; 108793c20e9SJon Mason struct ntb_rx_info *remote_rx_info; 109793c20e9SJon Mason 110fce8a7bbSJon Mason void (*tx_handler) (struct ntb_transport_qp *qp, void *qp_data, 111fce8a7bbSJon Mason void *data, int len); 112fce8a7bbSJon Mason struct list_head tx_free_q; 113fce8a7bbSJon Mason spinlock_t ntb_tx_free_q_lock; 11474465645SJon Mason void __iomem *tx_mw; 115*282a2feeSJon Mason dma_addr_t tx_mw_phys; 116793c20e9SJon Mason unsigned int tx_index; 117793c20e9SJon Mason unsigned int tx_max_entry; 118ef114ed5SJon Mason unsigned int tx_max_frame; 119fce8a7bbSJon Mason 120fce8a7bbSJon Mason void (*rx_handler) (struct ntb_transport_qp *qp, void *qp_data, 121fce8a7bbSJon Mason void *data, int len); 122fce8a7bbSJon Mason struct tasklet_struct rx_work; 123fce8a7bbSJon Mason struct list_head rx_pend_q; 124fce8a7bbSJon Mason struct list_head rx_free_q; 125fce8a7bbSJon Mason spinlock_t ntb_rx_pend_q_lock; 126fce8a7bbSJon Mason spinlock_t ntb_rx_free_q_lock; 127793c20e9SJon Mason void *rx_buff; 128793c20e9SJon Mason unsigned int rx_index; 129793c20e9SJon Mason unsigned int rx_max_entry; 130ef114ed5SJon Mason unsigned int rx_max_frame; 131*282a2feeSJon Mason dma_cookie_t last_cookie; 132fce8a7bbSJon Mason 133fce8a7bbSJon Mason void (*event_handler) (void *data, int status); 134fce8a7bbSJon Mason struct delayed_work link_work; 1357b4f2d3cSJon Mason struct work_struct link_cleanup; 136fce8a7bbSJon Mason 137fce8a7bbSJon Mason struct dentry *debugfs_dir; 138fce8a7bbSJon Mason struct dentry *debugfs_stats; 139fce8a7bbSJon Mason 140fce8a7bbSJon Mason /* Stats */ 141fce8a7bbSJon Mason u64 rx_bytes; 142fce8a7bbSJon Mason u64 rx_pkts; 143fce8a7bbSJon Mason u64 rx_ring_empty; 144fce8a7bbSJon Mason u64 rx_err_no_buf; 145fce8a7bbSJon Mason u64 rx_err_oflow; 146fce8a7bbSJon Mason u64 rx_err_ver; 147*282a2feeSJon Mason u64 rx_memcpy; 148*282a2feeSJon Mason u64 rx_async; 149fce8a7bbSJon Mason u64 tx_bytes; 150fce8a7bbSJon Mason u64 tx_pkts; 151fce8a7bbSJon Mason u64 tx_ring_full; 152*282a2feeSJon Mason u64 tx_err_no_buf; 153*282a2feeSJon Mason u64 tx_memcpy; 154*282a2feeSJon Mason u64 tx_async; 155fce8a7bbSJon Mason }; 156fce8a7bbSJon Mason 157fce8a7bbSJon Mason struct ntb_transport_mw { 158fce8a7bbSJon Mason size_t size; 159fce8a7bbSJon Mason void *virt_addr; 160fce8a7bbSJon Mason dma_addr_t dma_addr; 161fce8a7bbSJon Mason }; 162fce8a7bbSJon Mason 163fce8a7bbSJon Mason struct ntb_transport_client_dev { 164fce8a7bbSJon Mason struct list_head entry; 165fce8a7bbSJon Mason struct device dev; 166fce8a7bbSJon Mason }; 167fce8a7bbSJon Mason 168fce8a7bbSJon Mason struct ntb_transport { 169fce8a7bbSJon Mason struct list_head entry; 170fce8a7bbSJon Mason struct list_head client_devs; 171fce8a7bbSJon Mason 172fce8a7bbSJon Mason struct ntb_device *ndev; 173948d3a65SJon Mason struct ntb_transport_mw *mw; 174fce8a7bbSJon Mason struct ntb_transport_qp *qps; 175fce8a7bbSJon Mason unsigned int max_qps; 176fce8a7bbSJon Mason unsigned long qp_bitmap; 177fce8a7bbSJon Mason bool transport_link; 178fce8a7bbSJon Mason struct delayed_work link_work; 1797b4f2d3cSJon Mason struct work_struct link_cleanup; 180fce8a7bbSJon Mason }; 181fce8a7bbSJon Mason 182fce8a7bbSJon Mason enum { 183fce8a7bbSJon Mason DESC_DONE_FLAG = 1 << 0, 184fce8a7bbSJon Mason LINK_DOWN_FLAG = 1 << 1, 185fce8a7bbSJon Mason }; 186fce8a7bbSJon Mason 187fce8a7bbSJon Mason struct ntb_payload_header { 18874465645SJon Mason unsigned int ver; 189fce8a7bbSJon Mason unsigned int len; 190fce8a7bbSJon Mason unsigned int flags; 191fce8a7bbSJon Mason }; 192fce8a7bbSJon Mason 193fce8a7bbSJon Mason enum { 194fce8a7bbSJon Mason VERSION = 0, 195fce8a7bbSJon Mason QP_LINKS, 196113fc505SJon Mason NUM_QPS, 197113fc505SJon Mason NUM_MWS, 198113fc505SJon Mason MW0_SZ_HIGH, 199113fc505SJon Mason MW0_SZ_LOW, 200113fc505SJon Mason MW1_SZ_HIGH, 201113fc505SJon Mason MW1_SZ_LOW, 202fce8a7bbSJon Mason MAX_SPAD, 203fce8a7bbSJon Mason }; 204fce8a7bbSJon Mason 205948d3a65SJon Mason #define QP_TO_MW(ndev, qp) ((qp) % ntb_max_mw(ndev)) 206fce8a7bbSJon Mason #define NTB_QP_DEF_NUM_ENTRIES 100 207fce8a7bbSJon Mason #define NTB_LINK_DOWN_TIMEOUT 10 208fce8a7bbSJon Mason 209fce8a7bbSJon Mason static int ntb_match_bus(struct device *dev, struct device_driver *drv) 210fce8a7bbSJon Mason { 211fce8a7bbSJon Mason return !strncmp(dev_name(dev), drv->name, strlen(drv->name)); 212fce8a7bbSJon Mason } 213fce8a7bbSJon Mason 214fce8a7bbSJon Mason static int ntb_client_probe(struct device *dev) 215fce8a7bbSJon Mason { 216fce8a7bbSJon Mason const struct ntb_client *drv = container_of(dev->driver, 217fce8a7bbSJon Mason struct ntb_client, driver); 218fce8a7bbSJon Mason struct pci_dev *pdev = container_of(dev->parent, struct pci_dev, dev); 219fce8a7bbSJon Mason int rc = -EINVAL; 220fce8a7bbSJon Mason 221fce8a7bbSJon Mason get_device(dev); 222fce8a7bbSJon Mason if (drv && drv->probe) 223fce8a7bbSJon Mason rc = drv->probe(pdev); 224fce8a7bbSJon Mason if (rc) 225fce8a7bbSJon Mason put_device(dev); 226fce8a7bbSJon Mason 227fce8a7bbSJon Mason return rc; 228fce8a7bbSJon Mason } 229fce8a7bbSJon Mason 230fce8a7bbSJon Mason static int ntb_client_remove(struct device *dev) 231fce8a7bbSJon Mason { 232fce8a7bbSJon Mason const struct ntb_client *drv = container_of(dev->driver, 233fce8a7bbSJon Mason struct ntb_client, driver); 234fce8a7bbSJon Mason struct pci_dev *pdev = container_of(dev->parent, struct pci_dev, dev); 235fce8a7bbSJon Mason 236fce8a7bbSJon Mason if (drv && drv->remove) 237fce8a7bbSJon Mason drv->remove(pdev); 238fce8a7bbSJon Mason 239fce8a7bbSJon Mason put_device(dev); 240fce8a7bbSJon Mason 241fce8a7bbSJon Mason return 0; 242fce8a7bbSJon Mason } 243fce8a7bbSJon Mason 244170d35a5SJon Mason static struct bus_type ntb_bus_type = { 245fce8a7bbSJon Mason .name = "ntb_bus", 246fce8a7bbSJon Mason .match = ntb_match_bus, 247fce8a7bbSJon Mason .probe = ntb_client_probe, 248fce8a7bbSJon Mason .remove = ntb_client_remove, 249fce8a7bbSJon Mason }; 250fce8a7bbSJon Mason 251fce8a7bbSJon Mason static LIST_HEAD(ntb_transport_list); 252fce8a7bbSJon Mason 25378a61ab7SGreg Kroah-Hartman static int ntb_bus_init(struct ntb_transport *nt) 254fce8a7bbSJon Mason { 255fce8a7bbSJon Mason if (list_empty(&ntb_transport_list)) { 256fce8a7bbSJon Mason int rc = bus_register(&ntb_bus_type); 257fce8a7bbSJon Mason if (rc) 258fce8a7bbSJon Mason return rc; 259fce8a7bbSJon Mason } 260fce8a7bbSJon Mason 261fce8a7bbSJon Mason list_add(&nt->entry, &ntb_transport_list); 262fce8a7bbSJon Mason 263fce8a7bbSJon Mason return 0; 264fce8a7bbSJon Mason } 265fce8a7bbSJon Mason 26678a61ab7SGreg Kroah-Hartman static void ntb_bus_remove(struct ntb_transport *nt) 267fce8a7bbSJon Mason { 268fce8a7bbSJon Mason struct ntb_transport_client_dev *client_dev, *cd; 269fce8a7bbSJon Mason 270fce8a7bbSJon Mason list_for_each_entry_safe(client_dev, cd, &nt->client_devs, entry) { 271fce8a7bbSJon Mason dev_err(client_dev->dev.parent, "%s still attached to bus, removing\n", 272fce8a7bbSJon Mason dev_name(&client_dev->dev)); 273fce8a7bbSJon Mason list_del(&client_dev->entry); 274fce8a7bbSJon Mason device_unregister(&client_dev->dev); 275fce8a7bbSJon Mason } 276fce8a7bbSJon Mason 277fce8a7bbSJon Mason list_del(&nt->entry); 278fce8a7bbSJon Mason 279fce8a7bbSJon Mason if (list_empty(&ntb_transport_list)) 280fce8a7bbSJon Mason bus_unregister(&ntb_bus_type); 281fce8a7bbSJon Mason } 282fce8a7bbSJon Mason 283fce8a7bbSJon Mason static void ntb_client_release(struct device *dev) 284fce8a7bbSJon Mason { 285fce8a7bbSJon Mason struct ntb_transport_client_dev *client_dev; 286fce8a7bbSJon Mason client_dev = container_of(dev, struct ntb_transport_client_dev, dev); 287fce8a7bbSJon Mason 288fce8a7bbSJon Mason kfree(client_dev); 289fce8a7bbSJon Mason } 290fce8a7bbSJon Mason 291fce8a7bbSJon Mason /** 292fce8a7bbSJon Mason * ntb_unregister_client_dev - Unregister NTB client device 293fce8a7bbSJon Mason * @device_name: Name of NTB client device 294fce8a7bbSJon Mason * 295fce8a7bbSJon Mason * Unregister an NTB client device with the NTB transport layer 296fce8a7bbSJon Mason */ 297fce8a7bbSJon Mason void ntb_unregister_client_dev(char *device_name) 298fce8a7bbSJon Mason { 299fce8a7bbSJon Mason struct ntb_transport_client_dev *client, *cd; 300fce8a7bbSJon Mason struct ntb_transport *nt; 301fce8a7bbSJon Mason 302fce8a7bbSJon Mason list_for_each_entry(nt, &ntb_transport_list, entry) 303fce8a7bbSJon Mason list_for_each_entry_safe(client, cd, &nt->client_devs, entry) 304fce8a7bbSJon Mason if (!strncmp(dev_name(&client->dev), device_name, 305fce8a7bbSJon Mason strlen(device_name))) { 306fce8a7bbSJon Mason list_del(&client->entry); 307fce8a7bbSJon Mason device_unregister(&client->dev); 308fce8a7bbSJon Mason } 309fce8a7bbSJon Mason } 310fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_unregister_client_dev); 311fce8a7bbSJon Mason 312fce8a7bbSJon Mason /** 313fce8a7bbSJon Mason * ntb_register_client_dev - Register NTB client device 314fce8a7bbSJon Mason * @device_name: Name of NTB client device 315fce8a7bbSJon Mason * 316fce8a7bbSJon Mason * Register an NTB client device with the NTB transport layer 317fce8a7bbSJon Mason */ 318fce8a7bbSJon Mason int ntb_register_client_dev(char *device_name) 319fce8a7bbSJon Mason { 320fce8a7bbSJon Mason struct ntb_transport_client_dev *client_dev; 321fce8a7bbSJon Mason struct ntb_transport *nt; 3228b19d450SJon Mason int rc, i = 0; 323fce8a7bbSJon Mason 3248222b402SJon Mason if (list_empty(&ntb_transport_list)) 3258222b402SJon Mason return -ENODEV; 3268222b402SJon Mason 327fce8a7bbSJon Mason list_for_each_entry(nt, &ntb_transport_list, entry) { 328fce8a7bbSJon Mason struct device *dev; 329fce8a7bbSJon Mason 330fce8a7bbSJon Mason client_dev = kzalloc(sizeof(struct ntb_transport_client_dev), 331fce8a7bbSJon Mason GFP_KERNEL); 332fce8a7bbSJon Mason if (!client_dev) { 333fce8a7bbSJon Mason rc = -ENOMEM; 334fce8a7bbSJon Mason goto err; 335fce8a7bbSJon Mason } 336fce8a7bbSJon Mason 337fce8a7bbSJon Mason dev = &client_dev->dev; 338fce8a7bbSJon Mason 339fce8a7bbSJon Mason /* setup and register client devices */ 3408b19d450SJon Mason dev_set_name(dev, "%s%d", device_name, i); 341fce8a7bbSJon Mason dev->bus = &ntb_bus_type; 342fce8a7bbSJon Mason dev->release = ntb_client_release; 343fce8a7bbSJon Mason dev->parent = &ntb_query_pdev(nt->ndev)->dev; 344fce8a7bbSJon Mason 345fce8a7bbSJon Mason rc = device_register(dev); 346fce8a7bbSJon Mason if (rc) { 347fce8a7bbSJon Mason kfree(client_dev); 348fce8a7bbSJon Mason goto err; 349fce8a7bbSJon Mason } 350fce8a7bbSJon Mason 351fce8a7bbSJon Mason list_add_tail(&client_dev->entry, &nt->client_devs); 3528b19d450SJon Mason i++; 353fce8a7bbSJon Mason } 354fce8a7bbSJon Mason 355fce8a7bbSJon Mason return 0; 356fce8a7bbSJon Mason 357fce8a7bbSJon Mason err: 358fce8a7bbSJon Mason ntb_unregister_client_dev(device_name); 359fce8a7bbSJon Mason 360fce8a7bbSJon Mason return rc; 361fce8a7bbSJon Mason } 362fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_register_client_dev); 363fce8a7bbSJon Mason 364fce8a7bbSJon Mason /** 365fce8a7bbSJon Mason * ntb_register_client - Register NTB client driver 366fce8a7bbSJon Mason * @drv: NTB client driver to be registered 367fce8a7bbSJon Mason * 368fce8a7bbSJon Mason * Register an NTB client driver with the NTB transport layer 369fce8a7bbSJon Mason * 370fce8a7bbSJon Mason * RETURNS: An appropriate -ERRNO error value on error, or zero for success. 371fce8a7bbSJon Mason */ 372fce8a7bbSJon Mason int ntb_register_client(struct ntb_client *drv) 373fce8a7bbSJon Mason { 374fce8a7bbSJon Mason drv->driver.bus = &ntb_bus_type; 375fce8a7bbSJon Mason 3768222b402SJon Mason if (list_empty(&ntb_transport_list)) 3778222b402SJon Mason return -ENODEV; 3788222b402SJon Mason 379fce8a7bbSJon Mason return driver_register(&drv->driver); 380fce8a7bbSJon Mason } 381fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_register_client); 382fce8a7bbSJon Mason 383fce8a7bbSJon Mason /** 384fce8a7bbSJon Mason * ntb_unregister_client - Unregister NTB client driver 385fce8a7bbSJon Mason * @drv: NTB client driver to be unregistered 386fce8a7bbSJon Mason * 387fce8a7bbSJon Mason * Unregister an NTB client driver with the NTB transport layer 388fce8a7bbSJon Mason * 389fce8a7bbSJon Mason * RETURNS: An appropriate -ERRNO error value on error, or zero for success. 390fce8a7bbSJon Mason */ 391fce8a7bbSJon Mason void ntb_unregister_client(struct ntb_client *drv) 392fce8a7bbSJon Mason { 393fce8a7bbSJon Mason driver_unregister(&drv->driver); 394fce8a7bbSJon Mason } 395fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_unregister_client); 396fce8a7bbSJon Mason 397fce8a7bbSJon Mason static ssize_t debugfs_read(struct file *filp, char __user *ubuf, size_t count, 398fce8a7bbSJon Mason loff_t *offp) 399fce8a7bbSJon Mason { 400fce8a7bbSJon Mason struct ntb_transport_qp *qp; 401d7237e22SJon Mason char *buf; 402fce8a7bbSJon Mason ssize_t ret, out_offset, out_count; 403fce8a7bbSJon Mason 404*282a2feeSJon Mason out_count = 1000; 405d7237e22SJon Mason 406d7237e22SJon Mason buf = kmalloc(out_count, GFP_KERNEL); 407d7237e22SJon Mason if (!buf) 408d7237e22SJon Mason return -ENOMEM; 409fce8a7bbSJon Mason 410fce8a7bbSJon Mason qp = filp->private_data; 411fce8a7bbSJon Mason out_offset = 0; 412fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 413fce8a7bbSJon Mason "NTB QP stats\n"); 414fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 415fce8a7bbSJon Mason "rx_bytes - \t%llu\n", qp->rx_bytes); 416fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 417fce8a7bbSJon Mason "rx_pkts - \t%llu\n", qp->rx_pkts); 418fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 419*282a2feeSJon Mason "rx_memcpy - \t%llu\n", qp->rx_memcpy); 420*282a2feeSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 421*282a2feeSJon Mason "rx_async - \t%llu\n", qp->rx_async); 422*282a2feeSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 423fce8a7bbSJon Mason "rx_ring_empty - %llu\n", qp->rx_ring_empty); 424fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 425fce8a7bbSJon Mason "rx_err_no_buf - %llu\n", qp->rx_err_no_buf); 426fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 427fce8a7bbSJon Mason "rx_err_oflow - \t%llu\n", qp->rx_err_oflow); 428fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 429fce8a7bbSJon Mason "rx_err_ver - \t%llu\n", qp->rx_err_ver); 430fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 431793c20e9SJon Mason "rx_buff - \t%p\n", qp->rx_buff); 432fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 433793c20e9SJon Mason "rx_index - \t%u\n", qp->rx_index); 434fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 435793c20e9SJon Mason "rx_max_entry - \t%u\n", qp->rx_max_entry); 436fce8a7bbSJon Mason 437fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 438fce8a7bbSJon Mason "tx_bytes - \t%llu\n", qp->tx_bytes); 439fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 440fce8a7bbSJon Mason "tx_pkts - \t%llu\n", qp->tx_pkts); 441fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 442*282a2feeSJon Mason "tx_memcpy - \t%llu\n", qp->tx_memcpy); 443*282a2feeSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 444*282a2feeSJon Mason "tx_async - \t%llu\n", qp->tx_async); 445*282a2feeSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 446fce8a7bbSJon Mason "tx_ring_full - \t%llu\n", qp->tx_ring_full); 447fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 448*282a2feeSJon Mason "tx_err_no_buf - %llu\n", qp->tx_err_no_buf); 449*282a2feeSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 450793c20e9SJon Mason "tx_mw - \t%p\n", qp->tx_mw); 451fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 452793c20e9SJon Mason "tx_index - \t%u\n", qp->tx_index); 453fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 454793c20e9SJon Mason "tx_max_entry - \t%u\n", qp->tx_max_entry); 455fce8a7bbSJon Mason 456fce8a7bbSJon Mason out_offset += snprintf(buf + out_offset, out_count - out_offset, 457d7237e22SJon Mason "\nQP Link %s\n", (qp->qp_link == NTB_LINK_UP) ? 458fce8a7bbSJon Mason "Up" : "Down"); 459d7237e22SJon Mason if (out_offset > out_count) 460d7237e22SJon Mason out_offset = out_count; 461fce8a7bbSJon Mason 462fce8a7bbSJon Mason ret = simple_read_from_buffer(ubuf, count, offp, buf, out_offset); 463d7237e22SJon Mason kfree(buf); 464fce8a7bbSJon Mason return ret; 465fce8a7bbSJon Mason } 466fce8a7bbSJon Mason 467fce8a7bbSJon Mason static const struct file_operations ntb_qp_debugfs_stats = { 468fce8a7bbSJon Mason .owner = THIS_MODULE, 469d66d7ac2SJon Mason .open = simple_open, 470fce8a7bbSJon Mason .read = debugfs_read, 471fce8a7bbSJon Mason }; 472fce8a7bbSJon Mason 473fce8a7bbSJon Mason static void ntb_list_add(spinlock_t *lock, struct list_head *entry, 474fce8a7bbSJon Mason struct list_head *list) 475fce8a7bbSJon Mason { 476fce8a7bbSJon Mason unsigned long flags; 477fce8a7bbSJon Mason 478fce8a7bbSJon Mason spin_lock_irqsave(lock, flags); 479fce8a7bbSJon Mason list_add_tail(entry, list); 480fce8a7bbSJon Mason spin_unlock_irqrestore(lock, flags); 481fce8a7bbSJon Mason } 482fce8a7bbSJon Mason 483fce8a7bbSJon Mason static struct ntb_queue_entry *ntb_list_rm(spinlock_t *lock, 484fce8a7bbSJon Mason struct list_head *list) 485fce8a7bbSJon Mason { 486fce8a7bbSJon Mason struct ntb_queue_entry *entry; 487fce8a7bbSJon Mason unsigned long flags; 488fce8a7bbSJon Mason 489fce8a7bbSJon Mason spin_lock_irqsave(lock, flags); 490fce8a7bbSJon Mason if (list_empty(list)) { 491fce8a7bbSJon Mason entry = NULL; 492fce8a7bbSJon Mason goto out; 493fce8a7bbSJon Mason } 494fce8a7bbSJon Mason entry = list_first_entry(list, struct ntb_queue_entry, entry); 495fce8a7bbSJon Mason list_del(&entry->entry); 496fce8a7bbSJon Mason out: 497fce8a7bbSJon Mason spin_unlock_irqrestore(lock, flags); 498fce8a7bbSJon Mason 499fce8a7bbSJon Mason return entry; 500fce8a7bbSJon Mason } 501fce8a7bbSJon Mason 502fce8a7bbSJon Mason static void ntb_transport_setup_qp_mw(struct ntb_transport *nt, 503fce8a7bbSJon Mason unsigned int qp_num) 504fce8a7bbSJon Mason { 505fce8a7bbSJon Mason struct ntb_transport_qp *qp = &nt->qps[qp_num]; 506ef114ed5SJon Mason unsigned int rx_size, num_qps_mw; 507948d3a65SJon Mason u8 mw_num, mw_max; 508793c20e9SJon Mason unsigned int i; 509fce8a7bbSJon Mason 510948d3a65SJon Mason mw_max = ntb_max_mw(nt->ndev); 511948d3a65SJon Mason mw_num = QP_TO_MW(nt->ndev, qp_num); 512948d3a65SJon Mason 51374465645SJon Mason WARN_ON(nt->mw[mw_num].virt_addr == NULL); 514fce8a7bbSJon Mason 515948d3a65SJon Mason if (nt->max_qps % mw_max && mw_num < nt->max_qps % mw_max) 516948d3a65SJon Mason num_qps_mw = nt->max_qps / mw_max + 1; 517fce8a7bbSJon Mason else 518948d3a65SJon Mason num_qps_mw = nt->max_qps / mw_max; 519fce8a7bbSJon Mason 520793c20e9SJon Mason rx_size = (unsigned int) nt->mw[mw_num].size / num_qps_mw; 521*282a2feeSJon Mason qp->rx_buff = nt->mw[mw_num].virt_addr + qp_num / mw_max * rx_size; 522793c20e9SJon Mason rx_size -= sizeof(struct ntb_rx_info); 523793c20e9SJon Mason 524*282a2feeSJon Mason qp->remote_rx_info = qp->rx_buff + rx_size; 525*282a2feeSJon Mason 526c9d534c8SJon Mason /* Due to housekeeping, there must be atleast 2 buffs */ 527c9d534c8SJon Mason qp->rx_max_frame = min(transport_mtu, rx_size / 2); 528793c20e9SJon Mason qp->rx_max_entry = rx_size / qp->rx_max_frame; 529793c20e9SJon Mason qp->rx_index = 0; 530793c20e9SJon Mason 531c9d534c8SJon Mason qp->remote_rx_info->entry = qp->rx_max_entry - 1; 532fce8a7bbSJon Mason 533ef114ed5SJon Mason /* setup the hdr offsets with 0's */ 534793c20e9SJon Mason for (i = 0; i < qp->rx_max_entry; i++) { 535793c20e9SJon Mason void *offset = qp->rx_buff + qp->rx_max_frame * (i + 1) - 536ef114ed5SJon Mason sizeof(struct ntb_payload_header); 537ef114ed5SJon Mason memset(offset, 0, sizeof(struct ntb_payload_header)); 538793c20e9SJon Mason } 539fce8a7bbSJon Mason 540fce8a7bbSJon Mason qp->rx_pkts = 0; 541fce8a7bbSJon Mason qp->tx_pkts = 0; 54290f9e934SJon Mason qp->tx_index = 0; 543fce8a7bbSJon Mason } 544fce8a7bbSJon Mason 545113fc505SJon Mason static void ntb_free_mw(struct ntb_transport *nt, int num_mw) 546113fc505SJon Mason { 547113fc505SJon Mason struct ntb_transport_mw *mw = &nt->mw[num_mw]; 548113fc505SJon Mason struct pci_dev *pdev = ntb_query_pdev(nt->ndev); 549113fc505SJon Mason 550113fc505SJon Mason if (!mw->virt_addr) 551113fc505SJon Mason return; 552113fc505SJon Mason 553113fc505SJon Mason dma_free_coherent(&pdev->dev, mw->size, mw->virt_addr, mw->dma_addr); 554113fc505SJon Mason mw->virt_addr = NULL; 555113fc505SJon Mason } 556113fc505SJon Mason 557b77b2637SJon Mason static int ntb_set_mw(struct ntb_transport *nt, int num_mw, unsigned int size) 558b77b2637SJon Mason { 559b77b2637SJon Mason struct ntb_transport_mw *mw = &nt->mw[num_mw]; 560b77b2637SJon Mason struct pci_dev *pdev = ntb_query_pdev(nt->ndev); 561b77b2637SJon Mason 562b77b2637SJon Mason /* No need to re-setup */ 563b77b2637SJon Mason if (mw->size == ALIGN(size, 4096)) 564b77b2637SJon Mason return 0; 565b77b2637SJon Mason 566b77b2637SJon Mason if (mw->size != 0) 567b77b2637SJon Mason ntb_free_mw(nt, num_mw); 568b77b2637SJon Mason 569b77b2637SJon Mason /* Alloc memory for receiving data. Must be 4k aligned */ 570b77b2637SJon Mason mw->size = ALIGN(size, 4096); 571b77b2637SJon Mason 572b77b2637SJon Mason mw->virt_addr = dma_alloc_coherent(&pdev->dev, mw->size, &mw->dma_addr, 573b77b2637SJon Mason GFP_KERNEL); 574b77b2637SJon Mason if (!mw->virt_addr) { 575b77b2637SJon Mason mw->size = 0; 576b77b2637SJon Mason dev_err(&pdev->dev, "Unable to allocate MW buffer of size %d\n", 577b77b2637SJon Mason (int) mw->size); 578b77b2637SJon Mason return -ENOMEM; 579b77b2637SJon Mason } 580b77b2637SJon Mason 581b77b2637SJon Mason /* Notify HW the memory location of the receive buffer */ 582b77b2637SJon Mason ntb_set_mw_addr(nt->ndev, num_mw, mw->dma_addr); 583b77b2637SJon Mason 584b77b2637SJon Mason return 0; 585b77b2637SJon Mason } 586b77b2637SJon Mason 5877b4f2d3cSJon Mason static void ntb_qp_link_cleanup(struct work_struct *work) 588fce8a7bbSJon Mason { 5897b4f2d3cSJon Mason struct ntb_transport_qp *qp = container_of(work, 5907b4f2d3cSJon Mason struct ntb_transport_qp, 5917b4f2d3cSJon Mason link_cleanup); 592fce8a7bbSJon Mason struct ntb_transport *nt = qp->transport; 593fce8a7bbSJon Mason struct pci_dev *pdev = ntb_query_pdev(nt->ndev); 594fce8a7bbSJon Mason 595fce8a7bbSJon Mason if (qp->qp_link == NTB_LINK_DOWN) { 596fce8a7bbSJon Mason cancel_delayed_work_sync(&qp->link_work); 597fce8a7bbSJon Mason return; 598fce8a7bbSJon Mason } 599fce8a7bbSJon Mason 600fce8a7bbSJon Mason if (qp->event_handler) 601fce8a7bbSJon Mason qp->event_handler(qp->cb_data, NTB_LINK_DOWN); 602fce8a7bbSJon Mason 603fce8a7bbSJon Mason dev_info(&pdev->dev, "qp %d: Link Down\n", qp->qp_num); 604fce8a7bbSJon Mason qp->qp_link = NTB_LINK_DOWN; 605fce8a7bbSJon Mason 606fce8a7bbSJon Mason if (nt->transport_link == NTB_LINK_UP) 607fce8a7bbSJon Mason schedule_delayed_work(&qp->link_work, 608fce8a7bbSJon Mason msecs_to_jiffies(NTB_LINK_DOWN_TIMEOUT)); 609fce8a7bbSJon Mason } 610fce8a7bbSJon Mason 6117b4f2d3cSJon Mason static void ntb_qp_link_down(struct ntb_transport_qp *qp) 612fce8a7bbSJon Mason { 6137b4f2d3cSJon Mason schedule_work(&qp->link_cleanup); 6147b4f2d3cSJon Mason } 6157b4f2d3cSJon Mason 6167b4f2d3cSJon Mason static void ntb_transport_link_cleanup(struct work_struct *work) 6177b4f2d3cSJon Mason { 6187b4f2d3cSJon Mason struct ntb_transport *nt = container_of(work, struct ntb_transport, 6197b4f2d3cSJon Mason link_cleanup); 620fce8a7bbSJon Mason int i; 621fce8a7bbSJon Mason 622fce8a7bbSJon Mason if (nt->transport_link == NTB_LINK_DOWN) 623fce8a7bbSJon Mason cancel_delayed_work_sync(&nt->link_work); 624fce8a7bbSJon Mason else 625fce8a7bbSJon Mason nt->transport_link = NTB_LINK_DOWN; 626fce8a7bbSJon Mason 627fce8a7bbSJon Mason /* Pass along the info to any clients */ 628fce8a7bbSJon Mason for (i = 0; i < nt->max_qps; i++) 629fce8a7bbSJon Mason if (!test_bit(i, &nt->qp_bitmap)) 630fce8a7bbSJon Mason ntb_qp_link_down(&nt->qps[i]); 631fce8a7bbSJon Mason 632fce8a7bbSJon Mason /* The scratchpad registers keep the values if the remote side 633fce8a7bbSJon Mason * goes down, blast them now to give them a sane value the next 634fce8a7bbSJon Mason * time they are accessed 635fce8a7bbSJon Mason */ 636fce8a7bbSJon Mason for (i = 0; i < MAX_SPAD; i++) 637fce8a7bbSJon Mason ntb_write_local_spad(nt->ndev, i, 0); 638fce8a7bbSJon Mason } 639fce8a7bbSJon Mason 640fce8a7bbSJon Mason static void ntb_transport_event_callback(void *data, enum ntb_hw_event event) 641fce8a7bbSJon Mason { 642fce8a7bbSJon Mason struct ntb_transport *nt = data; 643fce8a7bbSJon Mason 644fce8a7bbSJon Mason switch (event) { 645fce8a7bbSJon Mason case NTB_EVENT_HW_LINK_UP: 646fce8a7bbSJon Mason schedule_delayed_work(&nt->link_work, 0); 647fce8a7bbSJon Mason break; 648fce8a7bbSJon Mason case NTB_EVENT_HW_LINK_DOWN: 6497b4f2d3cSJon Mason schedule_work(&nt->link_cleanup); 650fce8a7bbSJon Mason break; 651fce8a7bbSJon Mason default: 652fce8a7bbSJon Mason BUG(); 653fce8a7bbSJon Mason } 654fce8a7bbSJon Mason } 655fce8a7bbSJon Mason 656fce8a7bbSJon Mason static void ntb_transport_link_work(struct work_struct *work) 657fce8a7bbSJon Mason { 658fce8a7bbSJon Mason struct ntb_transport *nt = container_of(work, struct ntb_transport, 659fce8a7bbSJon Mason link_work.work); 660fce8a7bbSJon Mason struct ntb_device *ndev = nt->ndev; 661fce8a7bbSJon Mason struct pci_dev *pdev = ntb_query_pdev(ndev); 662fce8a7bbSJon Mason u32 val; 663fce8a7bbSJon Mason int rc, i; 664fce8a7bbSJon Mason 665113fc505SJon Mason /* send the local info, in the opposite order of the way we read it */ 666948d3a65SJon Mason for (i = 0; i < ntb_max_mw(ndev); i++) { 667113fc505SJon Mason rc = ntb_write_remote_spad(ndev, MW0_SZ_HIGH + (i * 2), 668113fc505SJon Mason ntb_get_mw_size(ndev, i) >> 32); 669fce8a7bbSJon Mason if (rc) { 670113fc505SJon Mason dev_err(&pdev->dev, "Error writing %u to remote spad %d\n", 671113fc505SJon Mason (u32)(ntb_get_mw_size(ndev, i) >> 32), 672113fc505SJon Mason MW0_SZ_HIGH + (i * 2)); 673fce8a7bbSJon Mason goto out; 674fce8a7bbSJon Mason } 675fce8a7bbSJon Mason 676113fc505SJon Mason rc = ntb_write_remote_spad(ndev, MW0_SZ_LOW + (i * 2), 677113fc505SJon Mason (u32) ntb_get_mw_size(ndev, i)); 678fce8a7bbSJon Mason if (rc) { 679113fc505SJon Mason dev_err(&pdev->dev, "Error writing %u to remote spad %d\n", 680113fc505SJon Mason (u32) ntb_get_mw_size(ndev, i), 681113fc505SJon Mason MW0_SZ_LOW + (i * 2)); 682fce8a7bbSJon Mason goto out; 683fce8a7bbSJon Mason } 684113fc505SJon Mason } 685fce8a7bbSJon Mason 686948d3a65SJon Mason rc = ntb_write_remote_spad(ndev, NUM_MWS, ntb_max_mw(ndev)); 687fce8a7bbSJon Mason if (rc) { 688fce8a7bbSJon Mason dev_err(&pdev->dev, "Error writing %x to remote spad %d\n", 689948d3a65SJon Mason ntb_max_mw(ndev), NUM_MWS); 690fce8a7bbSJon Mason goto out; 691fce8a7bbSJon Mason } 692fce8a7bbSJon Mason 693fce8a7bbSJon Mason rc = ntb_write_remote_spad(ndev, NUM_QPS, nt->max_qps); 694fce8a7bbSJon Mason if (rc) { 695fce8a7bbSJon Mason dev_err(&pdev->dev, "Error writing %x to remote spad %d\n", 696fce8a7bbSJon Mason nt->max_qps, NUM_QPS); 697fce8a7bbSJon Mason goto out; 698fce8a7bbSJon Mason } 699fce8a7bbSJon Mason 700113fc505SJon Mason rc = ntb_write_remote_spad(ndev, VERSION, NTB_TRANSPORT_VERSION); 701fce8a7bbSJon Mason if (rc) { 702fce8a7bbSJon Mason dev_err(&pdev->dev, "Error writing %x to remote spad %d\n", 703113fc505SJon Mason NTB_TRANSPORT_VERSION, VERSION); 704fce8a7bbSJon Mason goto out; 705fce8a7bbSJon Mason } 706fce8a7bbSJon Mason 707fce8a7bbSJon Mason /* Query the remote side for its info */ 708fce8a7bbSJon Mason rc = ntb_read_remote_spad(ndev, VERSION, &val); 709fce8a7bbSJon Mason if (rc) { 710fce8a7bbSJon Mason dev_err(&pdev->dev, "Error reading remote spad %d\n", VERSION); 711fce8a7bbSJon Mason goto out; 712fce8a7bbSJon Mason } 713fce8a7bbSJon Mason 714fce8a7bbSJon Mason if (val != NTB_TRANSPORT_VERSION) 715fce8a7bbSJon Mason goto out; 716fce8a7bbSJon Mason dev_dbg(&pdev->dev, "Remote version = %d\n", val); 717fce8a7bbSJon Mason 718fce8a7bbSJon Mason rc = ntb_read_remote_spad(ndev, NUM_QPS, &val); 719fce8a7bbSJon Mason if (rc) { 720fce8a7bbSJon Mason dev_err(&pdev->dev, "Error reading remote spad %d\n", NUM_QPS); 721fce8a7bbSJon Mason goto out; 722fce8a7bbSJon Mason } 723fce8a7bbSJon Mason 724fce8a7bbSJon Mason if (val != nt->max_qps) 725fce8a7bbSJon Mason goto out; 726fce8a7bbSJon Mason dev_dbg(&pdev->dev, "Remote max number of qps = %d\n", val); 727fce8a7bbSJon Mason 728113fc505SJon Mason rc = ntb_read_remote_spad(ndev, NUM_MWS, &val); 729fce8a7bbSJon Mason if (rc) { 730113fc505SJon Mason dev_err(&pdev->dev, "Error reading remote spad %d\n", NUM_MWS); 731fce8a7bbSJon Mason goto out; 732fce8a7bbSJon Mason } 733fce8a7bbSJon Mason 734948d3a65SJon Mason if (val != ntb_max_mw(ndev)) 735fce8a7bbSJon Mason goto out; 736113fc505SJon Mason dev_dbg(&pdev->dev, "Remote number of mws = %d\n", val); 737fce8a7bbSJon Mason 738948d3a65SJon Mason for (i = 0; i < ntb_max_mw(ndev); i++) { 739113fc505SJon Mason u64 val64; 740fce8a7bbSJon Mason 741113fc505SJon Mason rc = ntb_read_remote_spad(ndev, MW0_SZ_HIGH + (i * 2), &val); 742fce8a7bbSJon Mason if (rc) { 743113fc505SJon Mason dev_err(&pdev->dev, "Error reading remote spad %d\n", 744113fc505SJon Mason MW0_SZ_HIGH + (i * 2)); 745113fc505SJon Mason goto out1; 746fce8a7bbSJon Mason } 747fce8a7bbSJon Mason 748113fc505SJon Mason val64 = (u64) val << 32; 749fce8a7bbSJon Mason 750113fc505SJon Mason rc = ntb_read_remote_spad(ndev, MW0_SZ_LOW + (i * 2), &val); 751113fc505SJon Mason if (rc) { 752113fc505SJon Mason dev_err(&pdev->dev, "Error reading remote spad %d\n", 753113fc505SJon Mason MW0_SZ_LOW + (i * 2)); 754113fc505SJon Mason goto out1; 755113fc505SJon Mason } 756113fc505SJon Mason 757113fc505SJon Mason val64 |= val; 758113fc505SJon Mason 759113fc505SJon Mason dev_dbg(&pdev->dev, "Remote MW%d size = %llu\n", i, val64); 760113fc505SJon Mason 761113fc505SJon Mason rc = ntb_set_mw(nt, i, val64); 762fce8a7bbSJon Mason if (rc) 763113fc505SJon Mason goto out1; 764113fc505SJon Mason } 765fce8a7bbSJon Mason 766fce8a7bbSJon Mason nt->transport_link = NTB_LINK_UP; 767fce8a7bbSJon Mason 768fce8a7bbSJon Mason for (i = 0; i < nt->max_qps; i++) { 769fce8a7bbSJon Mason struct ntb_transport_qp *qp = &nt->qps[i]; 770fce8a7bbSJon Mason 771fce8a7bbSJon Mason ntb_transport_setup_qp_mw(nt, i); 772fce8a7bbSJon Mason 773fce8a7bbSJon Mason if (qp->client_ready == NTB_LINK_UP) 774fce8a7bbSJon Mason schedule_delayed_work(&qp->link_work, 0); 775fce8a7bbSJon Mason } 776fce8a7bbSJon Mason 777fce8a7bbSJon Mason return; 778fce8a7bbSJon Mason 779113fc505SJon Mason out1: 780948d3a65SJon Mason for (i = 0; i < ntb_max_mw(ndev); i++) 781113fc505SJon Mason ntb_free_mw(nt, i); 782fce8a7bbSJon Mason out: 783fce8a7bbSJon Mason if (ntb_hw_link_status(ndev)) 784fce8a7bbSJon Mason schedule_delayed_work(&nt->link_work, 785fce8a7bbSJon Mason msecs_to_jiffies(NTB_LINK_DOWN_TIMEOUT)); 786fce8a7bbSJon Mason } 787fce8a7bbSJon Mason 788fce8a7bbSJon Mason static void ntb_qp_link_work(struct work_struct *work) 789fce8a7bbSJon Mason { 790fce8a7bbSJon Mason struct ntb_transport_qp *qp = container_of(work, 791fce8a7bbSJon Mason struct ntb_transport_qp, 792fce8a7bbSJon Mason link_work.work); 793fce8a7bbSJon Mason struct pci_dev *pdev = ntb_query_pdev(qp->ndev); 794fce8a7bbSJon Mason struct ntb_transport *nt = qp->transport; 795fce8a7bbSJon Mason int rc, val; 796fce8a7bbSJon Mason 797fce8a7bbSJon Mason WARN_ON(nt->transport_link != NTB_LINK_UP); 798fce8a7bbSJon Mason 799fce8a7bbSJon Mason rc = ntb_read_local_spad(nt->ndev, QP_LINKS, &val); 800fce8a7bbSJon Mason if (rc) { 801fce8a7bbSJon Mason dev_err(&pdev->dev, "Error reading spad %d\n", QP_LINKS); 802fce8a7bbSJon Mason return; 803fce8a7bbSJon Mason } 804fce8a7bbSJon Mason 805fce8a7bbSJon Mason rc = ntb_write_remote_spad(nt->ndev, QP_LINKS, val | 1 << qp->qp_num); 806fce8a7bbSJon Mason if (rc) 807fce8a7bbSJon Mason dev_err(&pdev->dev, "Error writing %x to remote spad %d\n", 808fce8a7bbSJon Mason val | 1 << qp->qp_num, QP_LINKS); 809fce8a7bbSJon Mason 810fce8a7bbSJon Mason /* query remote spad for qp ready bits */ 811fce8a7bbSJon Mason rc = ntb_read_remote_spad(nt->ndev, QP_LINKS, &val); 812fce8a7bbSJon Mason if (rc) 813fce8a7bbSJon Mason dev_err(&pdev->dev, "Error reading remote spad %d\n", QP_LINKS); 814fce8a7bbSJon Mason 815fce8a7bbSJon Mason dev_dbg(&pdev->dev, "Remote QP link status = %x\n", val); 816fce8a7bbSJon Mason 817fce8a7bbSJon Mason /* See if the remote side is up */ 818fce8a7bbSJon Mason if (1 << qp->qp_num & val) { 819fce8a7bbSJon Mason qp->qp_link = NTB_LINK_UP; 820fce8a7bbSJon Mason 821fce8a7bbSJon Mason dev_info(&pdev->dev, "qp %d: Link Up\n", qp->qp_num); 822fce8a7bbSJon Mason if (qp->event_handler) 823fce8a7bbSJon Mason qp->event_handler(qp->cb_data, NTB_LINK_UP); 824fce8a7bbSJon Mason } else if (nt->transport_link == NTB_LINK_UP) 825fce8a7bbSJon Mason schedule_delayed_work(&qp->link_work, 826fce8a7bbSJon Mason msecs_to_jiffies(NTB_LINK_DOWN_TIMEOUT)); 827fce8a7bbSJon Mason } 828fce8a7bbSJon Mason 829*282a2feeSJon Mason static int ntb_transport_init_queue(struct ntb_transport *nt, 830fce8a7bbSJon Mason unsigned int qp_num) 831fce8a7bbSJon Mason { 832fce8a7bbSJon Mason struct ntb_transport_qp *qp; 833ef114ed5SJon Mason unsigned int num_qps_mw, tx_size; 834948d3a65SJon Mason u8 mw_num, mw_max; 835*282a2feeSJon Mason u64 qp_offset; 836948d3a65SJon Mason 837948d3a65SJon Mason mw_max = ntb_max_mw(nt->ndev); 838948d3a65SJon Mason mw_num = QP_TO_MW(nt->ndev, qp_num); 839fce8a7bbSJon Mason 840fce8a7bbSJon Mason qp = &nt->qps[qp_num]; 841fce8a7bbSJon Mason qp->qp_num = qp_num; 842fce8a7bbSJon Mason qp->transport = nt; 843fce8a7bbSJon Mason qp->ndev = nt->ndev; 844fce8a7bbSJon Mason qp->qp_link = NTB_LINK_DOWN; 845fce8a7bbSJon Mason qp->client_ready = NTB_LINK_DOWN; 846fce8a7bbSJon Mason qp->event_handler = NULL; 847fce8a7bbSJon Mason 848948d3a65SJon Mason if (nt->max_qps % mw_max && mw_num < nt->max_qps % mw_max) 849948d3a65SJon Mason num_qps_mw = nt->max_qps / mw_max + 1; 850ef114ed5SJon Mason else 851948d3a65SJon Mason num_qps_mw = nt->max_qps / mw_max; 852ef114ed5SJon Mason 853793c20e9SJon Mason tx_size = (unsigned int) ntb_get_mw_size(qp->ndev, mw_num) / num_qps_mw; 854*282a2feeSJon Mason qp_offset = qp_num / mw_max * tx_size; 855*282a2feeSJon Mason qp->tx_mw = ntb_get_mw_vbase(nt->ndev, mw_num) + qp_offset; 856*282a2feeSJon Mason if (!qp->tx_mw) 857*282a2feeSJon Mason return -EINVAL; 858793c20e9SJon Mason 859*282a2feeSJon Mason qp->tx_mw_phys = ntb_get_mw_base(qp->ndev, mw_num) + qp_offset; 860*282a2feeSJon Mason if (!qp->tx_mw_phys) 861*282a2feeSJon Mason return -EINVAL; 862*282a2feeSJon Mason 863*282a2feeSJon Mason tx_size -= sizeof(struct ntb_rx_info); 864*282a2feeSJon Mason qp->rx_info = qp->tx_mw + tx_size; 865*282a2feeSJon Mason 866c9d534c8SJon Mason /* Due to housekeeping, there must be atleast 2 buffs */ 867c9d534c8SJon Mason qp->tx_max_frame = min(transport_mtu, tx_size / 2); 868793c20e9SJon Mason qp->tx_max_entry = tx_size / qp->tx_max_frame; 869ef114ed5SJon Mason 8701517a3f2SJon Mason if (ntb_query_debugfs(nt->ndev)) { 871fce8a7bbSJon Mason char debugfs_name[4]; 872fce8a7bbSJon Mason 873fce8a7bbSJon Mason snprintf(debugfs_name, 4, "qp%d", qp_num); 874fce8a7bbSJon Mason qp->debugfs_dir = debugfs_create_dir(debugfs_name, 8751517a3f2SJon Mason ntb_query_debugfs(nt->ndev)); 876fce8a7bbSJon Mason 877fce8a7bbSJon Mason qp->debugfs_stats = debugfs_create_file("stats", S_IRUSR, 878fce8a7bbSJon Mason qp->debugfs_dir, qp, 879fce8a7bbSJon Mason &ntb_qp_debugfs_stats); 880fce8a7bbSJon Mason } 881fce8a7bbSJon Mason 882fce8a7bbSJon Mason INIT_DELAYED_WORK(&qp->link_work, ntb_qp_link_work); 8837b4f2d3cSJon Mason INIT_WORK(&qp->link_cleanup, ntb_qp_link_cleanup); 884fce8a7bbSJon Mason 885fce8a7bbSJon Mason spin_lock_init(&qp->ntb_rx_pend_q_lock); 886fce8a7bbSJon Mason spin_lock_init(&qp->ntb_rx_free_q_lock); 887fce8a7bbSJon Mason spin_lock_init(&qp->ntb_tx_free_q_lock); 888fce8a7bbSJon Mason 889fce8a7bbSJon Mason INIT_LIST_HEAD(&qp->rx_pend_q); 890fce8a7bbSJon Mason INIT_LIST_HEAD(&qp->rx_free_q); 891fce8a7bbSJon Mason INIT_LIST_HEAD(&qp->tx_free_q); 892*282a2feeSJon Mason 893*282a2feeSJon Mason return 0; 894fce8a7bbSJon Mason } 895fce8a7bbSJon Mason 896fce8a7bbSJon Mason int ntb_transport_init(struct pci_dev *pdev) 897fce8a7bbSJon Mason { 898fce8a7bbSJon Mason struct ntb_transport *nt; 899fce8a7bbSJon Mason int rc, i; 900fce8a7bbSJon Mason 901fce8a7bbSJon Mason nt = kzalloc(sizeof(struct ntb_transport), GFP_KERNEL); 902fce8a7bbSJon Mason if (!nt) 903fce8a7bbSJon Mason return -ENOMEM; 904fce8a7bbSJon Mason 905fce8a7bbSJon Mason nt->ndev = ntb_register_transport(pdev, nt); 906fce8a7bbSJon Mason if (!nt->ndev) { 907fce8a7bbSJon Mason rc = -EIO; 908fce8a7bbSJon Mason goto err; 909fce8a7bbSJon Mason } 910fce8a7bbSJon Mason 911948d3a65SJon Mason nt->mw = kcalloc(ntb_max_mw(nt->ndev), sizeof(struct ntb_transport_mw), 912948d3a65SJon Mason GFP_KERNEL); 913948d3a65SJon Mason if (!nt->mw) { 914948d3a65SJon Mason rc = -ENOMEM; 915948d3a65SJon Mason goto err1; 916948d3a65SJon Mason } 917948d3a65SJon Mason 918948d3a65SJon Mason if (max_num_clients) 919948d3a65SJon Mason nt->max_qps = min(ntb_max_cbs(nt->ndev), max_num_clients); 920948d3a65SJon Mason else 921948d3a65SJon Mason nt->max_qps = min(ntb_max_cbs(nt->ndev), ntb_max_mw(nt->ndev)); 922fce8a7bbSJon Mason 923fce8a7bbSJon Mason nt->qps = kcalloc(nt->max_qps, sizeof(struct ntb_transport_qp), 924fce8a7bbSJon Mason GFP_KERNEL); 925fce8a7bbSJon Mason if (!nt->qps) { 926fce8a7bbSJon Mason rc = -ENOMEM; 927948d3a65SJon Mason goto err2; 928fce8a7bbSJon Mason } 929fce8a7bbSJon Mason 930fce8a7bbSJon Mason nt->qp_bitmap = ((u64) 1 << nt->max_qps) - 1; 931fce8a7bbSJon Mason 932*282a2feeSJon Mason for (i = 0; i < nt->max_qps; i++) { 933*282a2feeSJon Mason rc = ntb_transport_init_queue(nt, i); 934*282a2feeSJon Mason if (rc) 935*282a2feeSJon Mason goto err3; 936*282a2feeSJon Mason } 937fce8a7bbSJon Mason 938fce8a7bbSJon Mason INIT_DELAYED_WORK(&nt->link_work, ntb_transport_link_work); 9397b4f2d3cSJon Mason INIT_WORK(&nt->link_cleanup, ntb_transport_link_cleanup); 940fce8a7bbSJon Mason 941fce8a7bbSJon Mason rc = ntb_register_event_callback(nt->ndev, 942fce8a7bbSJon Mason ntb_transport_event_callback); 943fce8a7bbSJon Mason if (rc) 944948d3a65SJon Mason goto err3; 945fce8a7bbSJon Mason 946fce8a7bbSJon Mason INIT_LIST_HEAD(&nt->client_devs); 947fce8a7bbSJon Mason rc = ntb_bus_init(nt); 948fce8a7bbSJon Mason if (rc) 949948d3a65SJon Mason goto err4; 950fce8a7bbSJon Mason 951fce8a7bbSJon Mason if (ntb_hw_link_status(nt->ndev)) 952fce8a7bbSJon Mason schedule_delayed_work(&nt->link_work, 0); 953fce8a7bbSJon Mason 954fce8a7bbSJon Mason return 0; 955fce8a7bbSJon Mason 956948d3a65SJon Mason err4: 957fce8a7bbSJon Mason ntb_unregister_event_callback(nt->ndev); 958948d3a65SJon Mason err3: 959fce8a7bbSJon Mason kfree(nt->qps); 960948d3a65SJon Mason err2: 961948d3a65SJon Mason kfree(nt->mw); 962fce8a7bbSJon Mason err1: 963fce8a7bbSJon Mason ntb_unregister_transport(nt->ndev); 964fce8a7bbSJon Mason err: 965fce8a7bbSJon Mason kfree(nt); 966fce8a7bbSJon Mason return rc; 967fce8a7bbSJon Mason } 968fce8a7bbSJon Mason 969fce8a7bbSJon Mason void ntb_transport_free(void *transport) 970fce8a7bbSJon Mason { 971fce8a7bbSJon Mason struct ntb_transport *nt = transport; 972948d3a65SJon Mason struct ntb_device *ndev = nt->ndev; 973fce8a7bbSJon Mason struct pci_dev *pdev; 974fce8a7bbSJon Mason int i; 975fce8a7bbSJon Mason 976fce8a7bbSJon Mason nt->transport_link = NTB_LINK_DOWN; 977fce8a7bbSJon Mason 978fce8a7bbSJon Mason /* verify that all the qp's are freed */ 9791517a3f2SJon Mason for (i = 0; i < nt->max_qps; i++) { 980fce8a7bbSJon Mason if (!test_bit(i, &nt->qp_bitmap)) 981fce8a7bbSJon Mason ntb_transport_free_queue(&nt->qps[i]); 9821517a3f2SJon Mason debugfs_remove_recursive(nt->qps[i].debugfs_dir); 9831517a3f2SJon Mason } 984fce8a7bbSJon Mason 985fce8a7bbSJon Mason ntb_bus_remove(nt); 986fce8a7bbSJon Mason 987fce8a7bbSJon Mason cancel_delayed_work_sync(&nt->link_work); 988fce8a7bbSJon Mason 989948d3a65SJon Mason ntb_unregister_event_callback(ndev); 990fce8a7bbSJon Mason 991948d3a65SJon Mason pdev = ntb_query_pdev(ndev); 992fce8a7bbSJon Mason 993948d3a65SJon Mason for (i = 0; i < ntb_max_mw(ndev); i++) 994113fc505SJon Mason ntb_free_mw(nt, i); 995fce8a7bbSJon Mason 996fce8a7bbSJon Mason kfree(nt->qps); 997948d3a65SJon Mason kfree(nt->mw); 998948d3a65SJon Mason ntb_unregister_transport(ndev); 999fce8a7bbSJon Mason kfree(nt); 1000fce8a7bbSJon Mason } 1001fce8a7bbSJon Mason 1002*282a2feeSJon Mason static void ntb_rx_copy_callback(void *data) 1003fce8a7bbSJon Mason { 1004*282a2feeSJon Mason struct ntb_queue_entry *entry = data; 1005*282a2feeSJon Mason struct ntb_transport_qp *qp = entry->qp; 1006448c6fb3SJon Mason void *cb_data = entry->cb_data; 1007448c6fb3SJon Mason unsigned int len = entry->len; 1008*282a2feeSJon Mason struct ntb_payload_header *hdr = entry->rx_hdr; 1009448c6fb3SJon Mason 1010*282a2feeSJon Mason /* Ensure that the data is fully copied out before clearing the flag */ 1011*282a2feeSJon Mason wmb(); 1012*282a2feeSJon Mason hdr->flags = 0; 1013*282a2feeSJon Mason 1014*282a2feeSJon Mason iowrite32(entry->index, &qp->rx_info->entry); 1015fce8a7bbSJon Mason 1016fce8a7bbSJon Mason ntb_list_add(&qp->ntb_rx_free_q_lock, &entry->entry, &qp->rx_free_q); 1017448c6fb3SJon Mason 1018448c6fb3SJon Mason if (qp->rx_handler && qp->client_ready == NTB_LINK_UP) 1019448c6fb3SJon Mason qp->rx_handler(qp, qp->cb_data, cb_data, len); 1020fce8a7bbSJon Mason } 1021fce8a7bbSJon Mason 1022*282a2feeSJon Mason static void ntb_memcpy_rx(struct ntb_queue_entry *entry, void *offset) 1023*282a2feeSJon Mason { 1024*282a2feeSJon Mason void *buf = entry->buf; 1025*282a2feeSJon Mason size_t len = entry->len; 1026*282a2feeSJon Mason 1027*282a2feeSJon Mason memcpy(buf, offset, len); 1028*282a2feeSJon Mason 1029*282a2feeSJon Mason ntb_rx_copy_callback(entry); 1030*282a2feeSJon Mason } 1031*282a2feeSJon Mason 1032*282a2feeSJon Mason static void ntb_async_rx(struct ntb_queue_entry *entry, void *offset, 1033*282a2feeSJon Mason size_t len) 1034*282a2feeSJon Mason { 1035*282a2feeSJon Mason struct dma_async_tx_descriptor *txd; 1036*282a2feeSJon Mason struct ntb_transport_qp *qp = entry->qp; 1037*282a2feeSJon Mason struct dma_chan *chan = qp->dma_chan; 1038*282a2feeSJon Mason struct dma_device *device; 1039*282a2feeSJon Mason size_t pay_off, buff_off; 1040*282a2feeSJon Mason dma_addr_t src, dest; 1041*282a2feeSJon Mason dma_cookie_t cookie; 1042*282a2feeSJon Mason void *buf = entry->buf; 1043*282a2feeSJon Mason unsigned long flags; 1044*282a2feeSJon Mason 1045*282a2feeSJon Mason entry->len = len; 1046*282a2feeSJon Mason 1047*282a2feeSJon Mason if (!chan) 1048*282a2feeSJon Mason goto err; 1049*282a2feeSJon Mason 1050*282a2feeSJon Mason if (len < copy_bytes) 1051*282a2feeSJon Mason goto err1; 1052*282a2feeSJon Mason 1053*282a2feeSJon Mason device = chan->device; 1054*282a2feeSJon Mason pay_off = (size_t) offset & ~PAGE_MASK; 1055*282a2feeSJon Mason buff_off = (size_t) buf & ~PAGE_MASK; 1056*282a2feeSJon Mason 1057*282a2feeSJon Mason if (!is_dma_copy_aligned(device, pay_off, buff_off, len)) 1058*282a2feeSJon Mason goto err1; 1059*282a2feeSJon Mason 1060*282a2feeSJon Mason dest = dma_map_single(device->dev, buf, len, DMA_FROM_DEVICE); 1061*282a2feeSJon Mason if (dma_mapping_error(device->dev, dest)) 1062*282a2feeSJon Mason goto err1; 1063*282a2feeSJon Mason 1064*282a2feeSJon Mason src = dma_map_single(device->dev, offset, len, DMA_TO_DEVICE); 1065*282a2feeSJon Mason if (dma_mapping_error(device->dev, src)) 1066*282a2feeSJon Mason goto err2; 1067*282a2feeSJon Mason 1068*282a2feeSJon Mason flags = DMA_COMPL_DEST_UNMAP_SINGLE | DMA_COMPL_SRC_UNMAP_SINGLE | 1069*282a2feeSJon Mason DMA_PREP_INTERRUPT; 1070*282a2feeSJon Mason txd = device->device_prep_dma_memcpy(chan, dest, src, len, flags); 1071*282a2feeSJon Mason if (!txd) 1072*282a2feeSJon Mason goto err3; 1073*282a2feeSJon Mason 1074*282a2feeSJon Mason txd->callback = ntb_rx_copy_callback; 1075*282a2feeSJon Mason txd->callback_param = entry; 1076*282a2feeSJon Mason 1077*282a2feeSJon Mason cookie = dmaengine_submit(txd); 1078*282a2feeSJon Mason if (dma_submit_error(cookie)) 1079*282a2feeSJon Mason goto err3; 1080*282a2feeSJon Mason 1081*282a2feeSJon Mason qp->last_cookie = cookie; 1082*282a2feeSJon Mason 1083*282a2feeSJon Mason qp->rx_async++; 1084*282a2feeSJon Mason 1085*282a2feeSJon Mason return; 1086*282a2feeSJon Mason 1087*282a2feeSJon Mason err3: 1088*282a2feeSJon Mason dma_unmap_single(device->dev, src, len, DMA_TO_DEVICE); 1089*282a2feeSJon Mason err2: 1090*282a2feeSJon Mason dma_unmap_single(device->dev, dest, len, DMA_FROM_DEVICE); 1091*282a2feeSJon Mason err1: 1092*282a2feeSJon Mason /* If the callbacks come out of order, the writing of the index to the 1093*282a2feeSJon Mason * last completed will be out of order. This may result in the 1094*282a2feeSJon Mason * receive stalling forever. 1095*282a2feeSJon Mason */ 1096*282a2feeSJon Mason dma_sync_wait(chan, qp->last_cookie); 1097*282a2feeSJon Mason err: 1098*282a2feeSJon Mason ntb_memcpy_rx(entry, offset); 1099*282a2feeSJon Mason qp->rx_memcpy++; 1100*282a2feeSJon Mason } 1101*282a2feeSJon Mason 1102fce8a7bbSJon Mason static int ntb_process_rxc(struct ntb_transport_qp *qp) 1103fce8a7bbSJon Mason { 1104fce8a7bbSJon Mason struct ntb_payload_header *hdr; 1105fce8a7bbSJon Mason struct ntb_queue_entry *entry; 1106fce8a7bbSJon Mason void *offset; 1107fce8a7bbSJon Mason 1108793c20e9SJon Mason offset = qp->rx_buff + qp->rx_max_frame * qp->rx_index; 1109793c20e9SJon Mason hdr = offset + qp->rx_max_frame - sizeof(struct ntb_payload_header); 1110793c20e9SJon Mason 1111fce8a7bbSJon Mason entry = ntb_list_rm(&qp->ntb_rx_pend_q_lock, &qp->rx_pend_q); 1112fce8a7bbSJon Mason if (!entry) { 1113fce8a7bbSJon Mason dev_dbg(&ntb_query_pdev(qp->ndev)->dev, 111474465645SJon Mason "no buffer - HDR ver %u, len %d, flags %x\n", 1115fce8a7bbSJon Mason hdr->ver, hdr->len, hdr->flags); 1116fce8a7bbSJon Mason qp->rx_err_no_buf++; 1117fce8a7bbSJon Mason return -ENOMEM; 1118fce8a7bbSJon Mason } 1119fce8a7bbSJon Mason 1120fce8a7bbSJon Mason if (!(hdr->flags & DESC_DONE_FLAG)) { 1121fce8a7bbSJon Mason ntb_list_add(&qp->ntb_rx_pend_q_lock, &entry->entry, 1122fce8a7bbSJon Mason &qp->rx_pend_q); 1123fce8a7bbSJon Mason qp->rx_ring_empty++; 1124fce8a7bbSJon Mason return -EAGAIN; 1125fce8a7bbSJon Mason } 1126fce8a7bbSJon Mason 112774465645SJon Mason if (hdr->ver != (u32) qp->rx_pkts) { 1128fce8a7bbSJon Mason dev_dbg(&ntb_query_pdev(qp->ndev)->dev, 112974465645SJon Mason "qp %d: version mismatch, expected %llu - got %u\n", 1130fce8a7bbSJon Mason qp->qp_num, qp->rx_pkts, hdr->ver); 1131fce8a7bbSJon Mason ntb_list_add(&qp->ntb_rx_pend_q_lock, &entry->entry, 1132fce8a7bbSJon Mason &qp->rx_pend_q); 1133fce8a7bbSJon Mason qp->rx_err_ver++; 1134fce8a7bbSJon Mason return -EIO; 1135fce8a7bbSJon Mason } 1136fce8a7bbSJon Mason 1137fce8a7bbSJon Mason if (hdr->flags & LINK_DOWN_FLAG) { 1138fce8a7bbSJon Mason ntb_qp_link_down(qp); 1139fce8a7bbSJon Mason 1140*282a2feeSJon Mason goto err; 1141fce8a7bbSJon Mason } 1142fce8a7bbSJon Mason 1143fce8a7bbSJon Mason dev_dbg(&ntb_query_pdev(qp->ndev)->dev, 114474465645SJon Mason "rx offset %u, ver %u - %d payload received, buf size %d\n", 1145793c20e9SJon Mason qp->rx_index, hdr->ver, hdr->len, entry->len); 1146fce8a7bbSJon Mason 1147*282a2feeSJon Mason qp->rx_bytes += hdr->len; 1148*282a2feeSJon Mason qp->rx_pkts++; 1149fce8a7bbSJon Mason 1150*282a2feeSJon Mason if (hdr->len > entry->len) { 1151fce8a7bbSJon Mason qp->rx_err_oflow++; 1152fce8a7bbSJon Mason dev_dbg(&ntb_query_pdev(qp->ndev)->dev, 1153fce8a7bbSJon Mason "RX overflow! Wanted %d got %d\n", 1154fce8a7bbSJon Mason hdr->len, entry->len); 1155*282a2feeSJon Mason 1156*282a2feeSJon Mason goto err; 1157fce8a7bbSJon Mason } 1158fce8a7bbSJon Mason 1159*282a2feeSJon Mason entry->index = qp->rx_index; 1160*282a2feeSJon Mason entry->rx_hdr = hdr; 1161*282a2feeSJon Mason 1162*282a2feeSJon Mason ntb_async_rx(entry, offset, hdr->len); 1163fce8a7bbSJon Mason 1164fce8a7bbSJon Mason out: 1165*282a2feeSJon Mason qp->rx_index++; 1166*282a2feeSJon Mason qp->rx_index %= qp->rx_max_entry; 1167*282a2feeSJon Mason 1168*282a2feeSJon Mason return 0; 1169*282a2feeSJon Mason 1170*282a2feeSJon Mason err: 1171*282a2feeSJon Mason ntb_list_add(&qp->ntb_rx_pend_q_lock, &entry->entry, 1172*282a2feeSJon Mason &qp->rx_pend_q); 1173793c20e9SJon Mason /* Ensure that the data is fully copied out before clearing the flag */ 1174793c20e9SJon Mason wmb(); 1175793c20e9SJon Mason hdr->flags = 0; 117674465645SJon Mason iowrite32(qp->rx_index, &qp->rx_info->entry); 1177793c20e9SJon Mason 1178*282a2feeSJon Mason goto out; 1179fce8a7bbSJon Mason } 1180fce8a7bbSJon Mason 1181fce8a7bbSJon Mason static void ntb_transport_rx(unsigned long data) 1182fce8a7bbSJon Mason { 1183fce8a7bbSJon Mason struct ntb_transport_qp *qp = (struct ntb_transport_qp *)data; 1184c336acd3SJon Mason int rc, i; 1185fce8a7bbSJon Mason 1186c336acd3SJon Mason /* Limit the number of packets processed in a single interrupt to 1187c336acd3SJon Mason * provide fairness to others 1188c336acd3SJon Mason */ 1189c336acd3SJon Mason for (i = 0; i < qp->rx_max_entry; i++) { 1190fce8a7bbSJon Mason rc = ntb_process_rxc(qp); 1191c336acd3SJon Mason if (rc) 1192c336acd3SJon Mason break; 1193c336acd3SJon Mason } 1194*282a2feeSJon Mason 1195*282a2feeSJon Mason if (qp->dma_chan) 1196*282a2feeSJon Mason dma_async_issue_pending(qp->dma_chan); 1197fce8a7bbSJon Mason } 1198fce8a7bbSJon Mason 1199fce8a7bbSJon Mason static void ntb_transport_rxc_db(void *data, int db_num) 1200fce8a7bbSJon Mason { 1201fce8a7bbSJon Mason struct ntb_transport_qp *qp = data; 1202fce8a7bbSJon Mason 1203fce8a7bbSJon Mason dev_dbg(&ntb_query_pdev(qp->ndev)->dev, "%s: doorbell %d received\n", 1204fce8a7bbSJon Mason __func__, db_num); 1205fce8a7bbSJon Mason 1206fce8a7bbSJon Mason tasklet_schedule(&qp->rx_work); 1207fce8a7bbSJon Mason } 1208fce8a7bbSJon Mason 1209*282a2feeSJon Mason static void ntb_tx_copy_callback(void *data) 1210fce8a7bbSJon Mason { 1211*282a2feeSJon Mason struct ntb_queue_entry *entry = data; 1212*282a2feeSJon Mason struct ntb_transport_qp *qp = entry->qp; 1213*282a2feeSJon Mason struct ntb_payload_header __iomem *hdr = entry->tx_hdr; 1214fce8a7bbSJon Mason 1215*282a2feeSJon Mason /* Ensure that the data is fully copied out before setting the flags */ 1216842c1ddeSJon Mason wmb(); 121774465645SJon Mason iowrite32(entry->flags | DESC_DONE_FLAG, &hdr->flags); 1218fce8a7bbSJon Mason 1219fce8a7bbSJon Mason ntb_ring_sdb(qp->ndev, qp->qp_num); 1220fce8a7bbSJon Mason 1221fce8a7bbSJon Mason /* The entry length can only be zero if the packet is intended to be a 1222fce8a7bbSJon Mason * "link down" or similar. Since no payload is being sent in these 1223fce8a7bbSJon Mason * cases, there is nothing to add to the completion queue. 1224fce8a7bbSJon Mason */ 1225fce8a7bbSJon Mason if (entry->len > 0) { 1226fce8a7bbSJon Mason qp->tx_bytes += entry->len; 1227fce8a7bbSJon Mason 1228fce8a7bbSJon Mason if (qp->tx_handler) 1229fce8a7bbSJon Mason qp->tx_handler(qp, qp->cb_data, entry->cb_data, 1230fce8a7bbSJon Mason entry->len); 1231fce8a7bbSJon Mason } 1232fce8a7bbSJon Mason 1233fce8a7bbSJon Mason ntb_list_add(&qp->ntb_tx_free_q_lock, &entry->entry, &qp->tx_free_q); 1234fce8a7bbSJon Mason } 1235fce8a7bbSJon Mason 1236*282a2feeSJon Mason static void ntb_memcpy_tx(struct ntb_queue_entry *entry, void __iomem *offset) 1237*282a2feeSJon Mason { 1238*282a2feeSJon Mason memcpy_toio(offset, entry->buf, entry->len); 1239*282a2feeSJon Mason 1240*282a2feeSJon Mason ntb_tx_copy_callback(entry); 1241*282a2feeSJon Mason } 1242*282a2feeSJon Mason 1243*282a2feeSJon Mason static void ntb_async_tx(struct ntb_transport_qp *qp, 1244*282a2feeSJon Mason struct ntb_queue_entry *entry) 1245*282a2feeSJon Mason { 1246*282a2feeSJon Mason struct ntb_payload_header __iomem *hdr; 1247*282a2feeSJon Mason struct dma_async_tx_descriptor *txd; 1248*282a2feeSJon Mason struct dma_chan *chan = qp->dma_chan; 1249*282a2feeSJon Mason struct dma_device *device; 1250*282a2feeSJon Mason size_t dest_off, buff_off; 1251*282a2feeSJon Mason dma_addr_t src, dest; 1252*282a2feeSJon Mason dma_cookie_t cookie; 1253*282a2feeSJon Mason void __iomem *offset; 1254*282a2feeSJon Mason size_t len = entry->len; 1255*282a2feeSJon Mason void *buf = entry->buf; 1256*282a2feeSJon Mason unsigned long flags; 1257*282a2feeSJon Mason 1258*282a2feeSJon Mason offset = qp->tx_mw + qp->tx_max_frame * qp->tx_index; 1259*282a2feeSJon Mason hdr = offset + qp->tx_max_frame - sizeof(struct ntb_payload_header); 1260*282a2feeSJon Mason entry->tx_hdr = hdr; 1261*282a2feeSJon Mason 1262*282a2feeSJon Mason iowrite32(entry->len, &hdr->len); 1263*282a2feeSJon Mason iowrite32((u32) qp->tx_pkts, &hdr->ver); 1264*282a2feeSJon Mason 1265*282a2feeSJon Mason if (!chan) 1266*282a2feeSJon Mason goto err; 1267*282a2feeSJon Mason 1268*282a2feeSJon Mason if (len < copy_bytes) 1269*282a2feeSJon Mason goto err; 1270*282a2feeSJon Mason 1271*282a2feeSJon Mason device = chan->device; 1272*282a2feeSJon Mason dest = qp->tx_mw_phys + qp->tx_max_frame * qp->tx_index; 1273*282a2feeSJon Mason buff_off = (size_t) buf & ~PAGE_MASK; 1274*282a2feeSJon Mason dest_off = (size_t) dest & ~PAGE_MASK; 1275*282a2feeSJon Mason 1276*282a2feeSJon Mason if (!is_dma_copy_aligned(device, buff_off, dest_off, len)) 1277*282a2feeSJon Mason goto err; 1278*282a2feeSJon Mason 1279*282a2feeSJon Mason src = dma_map_single(device->dev, buf, len, DMA_TO_DEVICE); 1280*282a2feeSJon Mason if (dma_mapping_error(device->dev, src)) 1281*282a2feeSJon Mason goto err; 1282*282a2feeSJon Mason 1283*282a2feeSJon Mason flags = DMA_COMPL_SRC_UNMAP_SINGLE | DMA_PREP_INTERRUPT; 1284*282a2feeSJon Mason txd = device->device_prep_dma_memcpy(chan, dest, src, len, flags); 1285*282a2feeSJon Mason if (!txd) 1286*282a2feeSJon Mason goto err1; 1287*282a2feeSJon Mason 1288*282a2feeSJon Mason txd->callback = ntb_tx_copy_callback; 1289*282a2feeSJon Mason txd->callback_param = entry; 1290*282a2feeSJon Mason 1291*282a2feeSJon Mason cookie = dmaengine_submit(txd); 1292*282a2feeSJon Mason if (dma_submit_error(cookie)) 1293*282a2feeSJon Mason goto err1; 1294*282a2feeSJon Mason 1295*282a2feeSJon Mason dma_async_issue_pending(chan); 1296*282a2feeSJon Mason qp->tx_async++; 1297*282a2feeSJon Mason 1298*282a2feeSJon Mason return; 1299*282a2feeSJon Mason err1: 1300*282a2feeSJon Mason dma_unmap_single(device->dev, src, len, DMA_TO_DEVICE); 1301*282a2feeSJon Mason err: 1302*282a2feeSJon Mason ntb_memcpy_tx(entry, offset); 1303*282a2feeSJon Mason qp->tx_memcpy++; 1304*282a2feeSJon Mason } 1305*282a2feeSJon Mason 1306fce8a7bbSJon Mason static int ntb_process_tx(struct ntb_transport_qp *qp, 1307fce8a7bbSJon Mason struct ntb_queue_entry *entry) 1308fce8a7bbSJon Mason { 1309*282a2feeSJon Mason dev_dbg(&ntb_query_pdev(qp->ndev)->dev, "%lld - tx %u, entry len %d flags %x buff %p\n", 1310*282a2feeSJon Mason qp->tx_pkts, qp->tx_index, entry->len, entry->flags, 1311fce8a7bbSJon Mason entry->buf); 1312793c20e9SJon Mason if (qp->tx_index == qp->remote_rx_info->entry) { 1313fce8a7bbSJon Mason qp->tx_ring_full++; 1314fce8a7bbSJon Mason return -EAGAIN; 1315fce8a7bbSJon Mason } 1316fce8a7bbSJon Mason 1317ef114ed5SJon Mason if (entry->len > qp->tx_max_frame - sizeof(struct ntb_payload_header)) { 1318fce8a7bbSJon Mason if (qp->tx_handler) 1319fce8a7bbSJon Mason qp->tx_handler(qp->cb_data, qp, NULL, -EIO); 1320fce8a7bbSJon Mason 1321fce8a7bbSJon Mason ntb_list_add(&qp->ntb_tx_free_q_lock, &entry->entry, 1322fce8a7bbSJon Mason &qp->tx_free_q); 1323fce8a7bbSJon Mason return 0; 1324fce8a7bbSJon Mason } 1325fce8a7bbSJon Mason 1326*282a2feeSJon Mason ntb_async_tx(qp, entry); 1327fce8a7bbSJon Mason 1328793c20e9SJon Mason qp->tx_index++; 1329793c20e9SJon Mason qp->tx_index %= qp->tx_max_entry; 1330fce8a7bbSJon Mason 1331fce8a7bbSJon Mason qp->tx_pkts++; 1332fce8a7bbSJon Mason 1333fce8a7bbSJon Mason return 0; 1334fce8a7bbSJon Mason } 1335fce8a7bbSJon Mason 1336fce8a7bbSJon Mason static void ntb_send_link_down(struct ntb_transport_qp *qp) 1337fce8a7bbSJon Mason { 1338fce8a7bbSJon Mason struct pci_dev *pdev = ntb_query_pdev(qp->ndev); 1339fce8a7bbSJon Mason struct ntb_queue_entry *entry; 1340fce8a7bbSJon Mason int i, rc; 1341fce8a7bbSJon Mason 1342fce8a7bbSJon Mason if (qp->qp_link == NTB_LINK_DOWN) 1343fce8a7bbSJon Mason return; 1344fce8a7bbSJon Mason 1345fce8a7bbSJon Mason qp->qp_link = NTB_LINK_DOWN; 1346fce8a7bbSJon Mason dev_info(&pdev->dev, "qp %d: Link Down\n", qp->qp_num); 1347fce8a7bbSJon Mason 1348fce8a7bbSJon Mason for (i = 0; i < NTB_LINK_DOWN_TIMEOUT; i++) { 1349f766755cSJon Mason entry = ntb_list_rm(&qp->ntb_tx_free_q_lock, &qp->tx_free_q); 1350fce8a7bbSJon Mason if (entry) 1351fce8a7bbSJon Mason break; 1352fce8a7bbSJon Mason msleep(100); 1353fce8a7bbSJon Mason } 1354fce8a7bbSJon Mason 1355fce8a7bbSJon Mason if (!entry) 1356fce8a7bbSJon Mason return; 1357fce8a7bbSJon Mason 1358fce8a7bbSJon Mason entry->cb_data = NULL; 1359fce8a7bbSJon Mason entry->buf = NULL; 1360fce8a7bbSJon Mason entry->len = 0; 1361fce8a7bbSJon Mason entry->flags = LINK_DOWN_FLAG; 1362fce8a7bbSJon Mason 1363fce8a7bbSJon Mason rc = ntb_process_tx(qp, entry); 1364fce8a7bbSJon Mason if (rc) 1365fce8a7bbSJon Mason dev_err(&pdev->dev, "ntb: QP%d unable to send linkdown msg\n", 1366fce8a7bbSJon Mason qp->qp_num); 1367fce8a7bbSJon Mason } 1368fce8a7bbSJon Mason 1369fce8a7bbSJon Mason /** 1370fce8a7bbSJon Mason * ntb_transport_create_queue - Create a new NTB transport layer queue 1371fce8a7bbSJon Mason * @rx_handler: receive callback function 1372fce8a7bbSJon Mason * @tx_handler: transmit callback function 1373fce8a7bbSJon Mason * @event_handler: event callback function 1374fce8a7bbSJon Mason * 1375fce8a7bbSJon Mason * Create a new NTB transport layer queue and provide the queue with a callback 1376fce8a7bbSJon Mason * routine for both transmit and receive. The receive callback routine will be 1377fce8a7bbSJon Mason * used to pass up data when the transport has received it on the queue. The 1378fce8a7bbSJon Mason * transmit callback routine will be called when the transport has completed the 1379fce8a7bbSJon Mason * transmission of the data on the queue and the data is ready to be freed. 1380fce8a7bbSJon Mason * 1381fce8a7bbSJon Mason * RETURNS: pointer to newly created ntb_queue, NULL on error. 1382fce8a7bbSJon Mason */ 1383fce8a7bbSJon Mason struct ntb_transport_qp * 1384fce8a7bbSJon Mason ntb_transport_create_queue(void *data, struct pci_dev *pdev, 1385fce8a7bbSJon Mason const struct ntb_queue_handlers *handlers) 1386fce8a7bbSJon Mason { 1387fce8a7bbSJon Mason struct ntb_queue_entry *entry; 1388fce8a7bbSJon Mason struct ntb_transport_qp *qp; 1389fce8a7bbSJon Mason struct ntb_transport *nt; 1390fce8a7bbSJon Mason unsigned int free_queue; 1391fce8a7bbSJon Mason int rc, i; 1392fce8a7bbSJon Mason 1393fce8a7bbSJon Mason nt = ntb_find_transport(pdev); 1394fce8a7bbSJon Mason if (!nt) 1395fce8a7bbSJon Mason goto err; 1396fce8a7bbSJon Mason 1397fce8a7bbSJon Mason free_queue = ffs(nt->qp_bitmap); 1398fce8a7bbSJon Mason if (!free_queue) 1399fce8a7bbSJon Mason goto err; 1400fce8a7bbSJon Mason 1401fce8a7bbSJon Mason /* decrement free_queue to make it zero based */ 1402fce8a7bbSJon Mason free_queue--; 1403fce8a7bbSJon Mason 1404fce8a7bbSJon Mason clear_bit(free_queue, &nt->qp_bitmap); 1405fce8a7bbSJon Mason 1406fce8a7bbSJon Mason qp = &nt->qps[free_queue]; 1407fce8a7bbSJon Mason qp->cb_data = data; 1408fce8a7bbSJon Mason qp->rx_handler = handlers->rx_handler; 1409fce8a7bbSJon Mason qp->tx_handler = handlers->tx_handler; 1410fce8a7bbSJon Mason qp->event_handler = handlers->event_handler; 1411fce8a7bbSJon Mason 1412*282a2feeSJon Mason qp->dma_chan = dma_find_channel(DMA_MEMCPY); 1413*282a2feeSJon Mason if (!qp->dma_chan) 1414*282a2feeSJon Mason dev_info(&pdev->dev, "Unable to allocate DMA channel, using CPU instead\n"); 1415*282a2feeSJon Mason else 1416*282a2feeSJon Mason dmaengine_get(); 1417*282a2feeSJon Mason 1418fce8a7bbSJon Mason for (i = 0; i < NTB_QP_DEF_NUM_ENTRIES; i++) { 1419fce8a7bbSJon Mason entry = kzalloc(sizeof(struct ntb_queue_entry), GFP_ATOMIC); 1420fce8a7bbSJon Mason if (!entry) 1421fce8a7bbSJon Mason goto err1; 1422fce8a7bbSJon Mason 1423*282a2feeSJon Mason entry->qp = qp; 1424fce8a7bbSJon Mason ntb_list_add(&qp->ntb_rx_free_q_lock, &entry->entry, 1425fce8a7bbSJon Mason &qp->rx_free_q); 1426fce8a7bbSJon Mason } 1427fce8a7bbSJon Mason 1428fce8a7bbSJon Mason for (i = 0; i < NTB_QP_DEF_NUM_ENTRIES; i++) { 1429fce8a7bbSJon Mason entry = kzalloc(sizeof(struct ntb_queue_entry), GFP_ATOMIC); 1430fce8a7bbSJon Mason if (!entry) 1431fce8a7bbSJon Mason goto err2; 1432fce8a7bbSJon Mason 1433*282a2feeSJon Mason entry->qp = qp; 1434fce8a7bbSJon Mason ntb_list_add(&qp->ntb_tx_free_q_lock, &entry->entry, 1435fce8a7bbSJon Mason &qp->tx_free_q); 1436fce8a7bbSJon Mason } 1437fce8a7bbSJon Mason 1438fce8a7bbSJon Mason tasklet_init(&qp->rx_work, ntb_transport_rx, (unsigned long) qp); 1439fce8a7bbSJon Mason 1440fce8a7bbSJon Mason rc = ntb_register_db_callback(qp->ndev, free_queue, qp, 1441fce8a7bbSJon Mason ntb_transport_rxc_db); 1442fce8a7bbSJon Mason if (rc) 1443fce8a7bbSJon Mason goto err3; 1444fce8a7bbSJon Mason 1445fce8a7bbSJon Mason dev_info(&pdev->dev, "NTB Transport QP %d created\n", qp->qp_num); 1446fce8a7bbSJon Mason 1447fce8a7bbSJon Mason return qp; 1448fce8a7bbSJon Mason 1449fce8a7bbSJon Mason err3: 1450fce8a7bbSJon Mason tasklet_disable(&qp->rx_work); 1451fce8a7bbSJon Mason err2: 1452f766755cSJon Mason while ((entry = ntb_list_rm(&qp->ntb_tx_free_q_lock, &qp->tx_free_q))) 1453fce8a7bbSJon Mason kfree(entry); 1454fce8a7bbSJon Mason err1: 1455f766755cSJon Mason while ((entry = ntb_list_rm(&qp->ntb_rx_free_q_lock, &qp->rx_free_q))) 1456fce8a7bbSJon Mason kfree(entry); 1457fce8a7bbSJon Mason set_bit(free_queue, &nt->qp_bitmap); 1458fce8a7bbSJon Mason err: 1459fce8a7bbSJon Mason return NULL; 1460fce8a7bbSJon Mason } 1461fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_create_queue); 1462fce8a7bbSJon Mason 1463fce8a7bbSJon Mason /** 1464fce8a7bbSJon Mason * ntb_transport_free_queue - Frees NTB transport queue 1465fce8a7bbSJon Mason * @qp: NTB queue to be freed 1466fce8a7bbSJon Mason * 1467fce8a7bbSJon Mason * Frees NTB transport queue 1468fce8a7bbSJon Mason */ 1469fce8a7bbSJon Mason void ntb_transport_free_queue(struct ntb_transport_qp *qp) 1470fce8a7bbSJon Mason { 1471186f27ffSJon Mason struct pci_dev *pdev; 1472fce8a7bbSJon Mason struct ntb_queue_entry *entry; 1473fce8a7bbSJon Mason 1474fce8a7bbSJon Mason if (!qp) 1475fce8a7bbSJon Mason return; 1476fce8a7bbSJon Mason 1477186f27ffSJon Mason pdev = ntb_query_pdev(qp->ndev); 1478186f27ffSJon Mason 1479*282a2feeSJon Mason if (qp->dma_chan) { 1480*282a2feeSJon Mason struct dma_chan *chan = qp->dma_chan; 1481*282a2feeSJon Mason /* Putting the dma_chan to NULL will force any new traffic to be 1482*282a2feeSJon Mason * processed by the CPU instead of the DAM engine 1483*282a2feeSJon Mason */ 1484*282a2feeSJon Mason qp->dma_chan = NULL; 1485*282a2feeSJon Mason 1486*282a2feeSJon Mason /* Try to be nice and wait for any queued DMA engine 1487*282a2feeSJon Mason * transactions to process before smashing it with a rock 1488*282a2feeSJon Mason */ 1489*282a2feeSJon Mason dma_sync_wait(chan, qp->last_cookie); 1490*282a2feeSJon Mason dmaengine_terminate_all(chan); 1491*282a2feeSJon Mason dmaengine_put(); 1492*282a2feeSJon Mason } 1493fce8a7bbSJon Mason 1494fce8a7bbSJon Mason ntb_unregister_db_callback(qp->ndev, qp->qp_num); 1495fce8a7bbSJon Mason tasklet_disable(&qp->rx_work); 1496fce8a7bbSJon Mason 1497*282a2feeSJon Mason cancel_delayed_work_sync(&qp->link_work); 1498*282a2feeSJon Mason 1499f766755cSJon Mason while ((entry = ntb_list_rm(&qp->ntb_rx_free_q_lock, &qp->rx_free_q))) 1500fce8a7bbSJon Mason kfree(entry); 1501fce8a7bbSJon Mason 1502f766755cSJon Mason while ((entry = ntb_list_rm(&qp->ntb_rx_pend_q_lock, &qp->rx_pend_q))) { 1503fce8a7bbSJon Mason dev_warn(&pdev->dev, "Freeing item from a non-empty queue\n"); 1504fce8a7bbSJon Mason kfree(entry); 1505fce8a7bbSJon Mason } 1506fce8a7bbSJon Mason 1507f766755cSJon Mason while ((entry = ntb_list_rm(&qp->ntb_tx_free_q_lock, &qp->tx_free_q))) 1508fce8a7bbSJon Mason kfree(entry); 1509fce8a7bbSJon Mason 1510fce8a7bbSJon Mason set_bit(qp->qp_num, &qp->transport->qp_bitmap); 1511fce8a7bbSJon Mason 1512fce8a7bbSJon Mason dev_info(&pdev->dev, "NTB Transport QP %d freed\n", qp->qp_num); 1513fce8a7bbSJon Mason } 1514fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_free_queue); 1515fce8a7bbSJon Mason 1516fce8a7bbSJon Mason /** 1517fce8a7bbSJon Mason * ntb_transport_rx_remove - Dequeues enqueued rx packet 1518fce8a7bbSJon Mason * @qp: NTB queue to be freed 1519fce8a7bbSJon Mason * @len: pointer to variable to write enqueued buffers length 1520fce8a7bbSJon Mason * 1521fce8a7bbSJon Mason * Dequeues unused buffers from receive queue. Should only be used during 1522fce8a7bbSJon Mason * shutdown of qp. 1523fce8a7bbSJon Mason * 1524fce8a7bbSJon Mason * RETURNS: NULL error value on error, or void* for success. 1525fce8a7bbSJon Mason */ 1526fce8a7bbSJon Mason void *ntb_transport_rx_remove(struct ntb_transport_qp *qp, unsigned int *len) 1527fce8a7bbSJon Mason { 1528fce8a7bbSJon Mason struct ntb_queue_entry *entry; 1529fce8a7bbSJon Mason void *buf; 1530fce8a7bbSJon Mason 1531fce8a7bbSJon Mason if (!qp || qp->client_ready == NTB_LINK_UP) 1532fce8a7bbSJon Mason return NULL; 1533fce8a7bbSJon Mason 1534fce8a7bbSJon Mason entry = ntb_list_rm(&qp->ntb_rx_pend_q_lock, &qp->rx_pend_q); 1535fce8a7bbSJon Mason if (!entry) 1536fce8a7bbSJon Mason return NULL; 1537fce8a7bbSJon Mason 1538fce8a7bbSJon Mason buf = entry->cb_data; 1539fce8a7bbSJon Mason *len = entry->len; 1540fce8a7bbSJon Mason 1541f766755cSJon Mason ntb_list_add(&qp->ntb_rx_free_q_lock, &entry->entry, &qp->rx_free_q); 1542fce8a7bbSJon Mason 1543fce8a7bbSJon Mason return buf; 1544fce8a7bbSJon Mason } 1545fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_rx_remove); 1546fce8a7bbSJon Mason 1547fce8a7bbSJon Mason /** 1548fce8a7bbSJon Mason * ntb_transport_rx_enqueue - Enqueue a new NTB queue entry 1549fce8a7bbSJon Mason * @qp: NTB transport layer queue the entry is to be enqueued on 1550fce8a7bbSJon Mason * @cb: per buffer pointer for callback function to use 1551fce8a7bbSJon Mason * @data: pointer to data buffer that incoming packets will be copied into 1552fce8a7bbSJon Mason * @len: length of the data buffer 1553fce8a7bbSJon Mason * 1554fce8a7bbSJon Mason * Enqueue a new receive buffer onto the transport queue into which a NTB 1555fce8a7bbSJon Mason * payload can be received into. 1556fce8a7bbSJon Mason * 1557fce8a7bbSJon Mason * RETURNS: An appropriate -ERRNO error value on error, or zero for success. 1558fce8a7bbSJon Mason */ 1559fce8a7bbSJon Mason int ntb_transport_rx_enqueue(struct ntb_transport_qp *qp, void *cb, void *data, 1560fce8a7bbSJon Mason unsigned int len) 1561fce8a7bbSJon Mason { 1562fce8a7bbSJon Mason struct ntb_queue_entry *entry; 1563fce8a7bbSJon Mason 1564fce8a7bbSJon Mason if (!qp) 1565fce8a7bbSJon Mason return -EINVAL; 1566fce8a7bbSJon Mason 1567fce8a7bbSJon Mason entry = ntb_list_rm(&qp->ntb_rx_free_q_lock, &qp->rx_free_q); 1568fce8a7bbSJon Mason if (!entry) 1569fce8a7bbSJon Mason return -ENOMEM; 1570fce8a7bbSJon Mason 1571fce8a7bbSJon Mason entry->cb_data = cb; 1572fce8a7bbSJon Mason entry->buf = data; 1573fce8a7bbSJon Mason entry->len = len; 1574fce8a7bbSJon Mason 1575f766755cSJon Mason ntb_list_add(&qp->ntb_rx_pend_q_lock, &entry->entry, &qp->rx_pend_q); 1576fce8a7bbSJon Mason 1577fce8a7bbSJon Mason return 0; 1578fce8a7bbSJon Mason } 1579fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_rx_enqueue); 1580fce8a7bbSJon Mason 1581fce8a7bbSJon Mason /** 1582fce8a7bbSJon Mason * ntb_transport_tx_enqueue - Enqueue a new NTB queue entry 1583fce8a7bbSJon Mason * @qp: NTB transport layer queue the entry is to be enqueued on 1584fce8a7bbSJon Mason * @cb: per buffer pointer for callback function to use 1585fce8a7bbSJon Mason * @data: pointer to data buffer that will be sent 1586fce8a7bbSJon Mason * @len: length of the data buffer 1587fce8a7bbSJon Mason * 1588fce8a7bbSJon Mason * Enqueue a new transmit buffer onto the transport queue from which a NTB 1589fce8a7bbSJon Mason * payload will be transmitted. This assumes that a lock is behing held to 1590fce8a7bbSJon Mason * serialize access to the qp. 1591fce8a7bbSJon Mason * 1592fce8a7bbSJon Mason * RETURNS: An appropriate -ERRNO error value on error, or zero for success. 1593fce8a7bbSJon Mason */ 1594fce8a7bbSJon Mason int ntb_transport_tx_enqueue(struct ntb_transport_qp *qp, void *cb, void *data, 1595fce8a7bbSJon Mason unsigned int len) 1596fce8a7bbSJon Mason { 1597fce8a7bbSJon Mason struct ntb_queue_entry *entry; 1598fce8a7bbSJon Mason int rc; 1599fce8a7bbSJon Mason 1600fce8a7bbSJon Mason if (!qp || qp->qp_link != NTB_LINK_UP || !len) 1601fce8a7bbSJon Mason return -EINVAL; 1602fce8a7bbSJon Mason 1603fce8a7bbSJon Mason entry = ntb_list_rm(&qp->ntb_tx_free_q_lock, &qp->tx_free_q); 1604*282a2feeSJon Mason if (!entry) { 1605*282a2feeSJon Mason qp->tx_err_no_buf++; 1606fce8a7bbSJon Mason return -ENOMEM; 1607*282a2feeSJon Mason } 1608fce8a7bbSJon Mason 1609fce8a7bbSJon Mason entry->cb_data = cb; 1610fce8a7bbSJon Mason entry->buf = data; 1611fce8a7bbSJon Mason entry->len = len; 1612fce8a7bbSJon Mason entry->flags = 0; 1613fce8a7bbSJon Mason 1614fce8a7bbSJon Mason rc = ntb_process_tx(qp, entry); 1615fce8a7bbSJon Mason if (rc) 1616fce8a7bbSJon Mason ntb_list_add(&qp->ntb_tx_free_q_lock, &entry->entry, 1617fce8a7bbSJon Mason &qp->tx_free_q); 1618fce8a7bbSJon Mason 1619fce8a7bbSJon Mason return rc; 1620fce8a7bbSJon Mason } 1621fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_tx_enqueue); 1622fce8a7bbSJon Mason 1623fce8a7bbSJon Mason /** 1624fce8a7bbSJon Mason * ntb_transport_link_up - Notify NTB transport of client readiness to use queue 1625fce8a7bbSJon Mason * @qp: NTB transport layer queue to be enabled 1626fce8a7bbSJon Mason * 1627fce8a7bbSJon Mason * Notify NTB transport layer of client readiness to use queue 1628fce8a7bbSJon Mason */ 1629fce8a7bbSJon Mason void ntb_transport_link_up(struct ntb_transport_qp *qp) 1630fce8a7bbSJon Mason { 1631fce8a7bbSJon Mason if (!qp) 1632fce8a7bbSJon Mason return; 1633fce8a7bbSJon Mason 1634fce8a7bbSJon Mason qp->client_ready = NTB_LINK_UP; 1635fce8a7bbSJon Mason 1636fce8a7bbSJon Mason if (qp->transport->transport_link == NTB_LINK_UP) 1637fce8a7bbSJon Mason schedule_delayed_work(&qp->link_work, 0); 1638fce8a7bbSJon Mason } 1639fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_link_up); 1640fce8a7bbSJon Mason 1641fce8a7bbSJon Mason /** 1642fce8a7bbSJon Mason * ntb_transport_link_down - Notify NTB transport to no longer enqueue data 1643fce8a7bbSJon Mason * @qp: NTB transport layer queue to be disabled 1644fce8a7bbSJon Mason * 1645fce8a7bbSJon Mason * Notify NTB transport layer of client's desire to no longer receive data on 1646fce8a7bbSJon Mason * transport queue specified. It is the client's responsibility to ensure all 1647fce8a7bbSJon Mason * entries on queue are purged or otherwise handled appropraitely. 1648fce8a7bbSJon Mason */ 1649fce8a7bbSJon Mason void ntb_transport_link_down(struct ntb_transport_qp *qp) 1650fce8a7bbSJon Mason { 1651186f27ffSJon Mason struct pci_dev *pdev; 1652fce8a7bbSJon Mason int rc, val; 1653fce8a7bbSJon Mason 1654fce8a7bbSJon Mason if (!qp) 1655fce8a7bbSJon Mason return; 1656fce8a7bbSJon Mason 1657186f27ffSJon Mason pdev = ntb_query_pdev(qp->ndev); 1658fce8a7bbSJon Mason qp->client_ready = NTB_LINK_DOWN; 1659fce8a7bbSJon Mason 1660fce8a7bbSJon Mason rc = ntb_read_local_spad(qp->ndev, QP_LINKS, &val); 1661fce8a7bbSJon Mason if (rc) { 1662fce8a7bbSJon Mason dev_err(&pdev->dev, "Error reading spad %d\n", QP_LINKS); 1663fce8a7bbSJon Mason return; 1664fce8a7bbSJon Mason } 1665fce8a7bbSJon Mason 1666fce8a7bbSJon Mason rc = ntb_write_remote_spad(qp->ndev, QP_LINKS, 1667fce8a7bbSJon Mason val & ~(1 << qp->qp_num)); 1668fce8a7bbSJon Mason if (rc) 1669fce8a7bbSJon Mason dev_err(&pdev->dev, "Error writing %x to remote spad %d\n", 1670fce8a7bbSJon Mason val & ~(1 << qp->qp_num), QP_LINKS); 1671fce8a7bbSJon Mason 1672fce8a7bbSJon Mason if (qp->qp_link == NTB_LINK_UP) 1673fce8a7bbSJon Mason ntb_send_link_down(qp); 1674fce8a7bbSJon Mason else 1675fce8a7bbSJon Mason cancel_delayed_work_sync(&qp->link_work); 1676fce8a7bbSJon Mason } 1677fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_link_down); 1678fce8a7bbSJon Mason 1679fce8a7bbSJon Mason /** 1680fce8a7bbSJon Mason * ntb_transport_link_query - Query transport link state 1681fce8a7bbSJon Mason * @qp: NTB transport layer queue to be queried 1682fce8a7bbSJon Mason * 1683fce8a7bbSJon Mason * Query connectivity to the remote system of the NTB transport queue 1684fce8a7bbSJon Mason * 1685fce8a7bbSJon Mason * RETURNS: true for link up or false for link down 1686fce8a7bbSJon Mason */ 1687fce8a7bbSJon Mason bool ntb_transport_link_query(struct ntb_transport_qp *qp) 1688fce8a7bbSJon Mason { 1689186f27ffSJon Mason if (!qp) 1690186f27ffSJon Mason return false; 1691186f27ffSJon Mason 1692fce8a7bbSJon Mason return qp->qp_link == NTB_LINK_UP; 1693fce8a7bbSJon Mason } 1694fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_link_query); 1695fce8a7bbSJon Mason 1696fce8a7bbSJon Mason /** 1697fce8a7bbSJon Mason * ntb_transport_qp_num - Query the qp number 1698fce8a7bbSJon Mason * @qp: NTB transport layer queue to be queried 1699fce8a7bbSJon Mason * 1700fce8a7bbSJon Mason * Query qp number of the NTB transport queue 1701fce8a7bbSJon Mason * 1702fce8a7bbSJon Mason * RETURNS: a zero based number specifying the qp number 1703fce8a7bbSJon Mason */ 1704fce8a7bbSJon Mason unsigned char ntb_transport_qp_num(struct ntb_transport_qp *qp) 1705fce8a7bbSJon Mason { 1706186f27ffSJon Mason if (!qp) 1707186f27ffSJon Mason return 0; 1708186f27ffSJon Mason 1709fce8a7bbSJon Mason return qp->qp_num; 1710fce8a7bbSJon Mason } 1711fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_qp_num); 1712fce8a7bbSJon Mason 1713fce8a7bbSJon Mason /** 1714fce8a7bbSJon Mason * ntb_transport_max_size - Query the max payload size of a qp 1715fce8a7bbSJon Mason * @qp: NTB transport layer queue to be queried 1716fce8a7bbSJon Mason * 1717fce8a7bbSJon Mason * Query the maximum payload size permissible on the given qp 1718fce8a7bbSJon Mason * 1719fce8a7bbSJon Mason * RETURNS: the max payload size of a qp 1720fce8a7bbSJon Mason */ 1721ef114ed5SJon Mason unsigned int ntb_transport_max_size(struct ntb_transport_qp *qp) 1722fce8a7bbSJon Mason { 1723*282a2feeSJon Mason unsigned int max; 1724*282a2feeSJon Mason 1725186f27ffSJon Mason if (!qp) 1726186f27ffSJon Mason return 0; 1727186f27ffSJon Mason 1728*282a2feeSJon Mason if (!qp->dma_chan) 1729ef114ed5SJon Mason return qp->tx_max_frame - sizeof(struct ntb_payload_header); 1730*282a2feeSJon Mason 1731*282a2feeSJon Mason /* If DMA engine usage is possible, try to find the max size for that */ 1732*282a2feeSJon Mason max = qp->tx_max_frame - sizeof(struct ntb_payload_header); 1733*282a2feeSJon Mason max -= max % (1 << qp->dma_chan->device->copy_align); 1734*282a2feeSJon Mason 1735*282a2feeSJon Mason return max; 1736fce8a7bbSJon Mason } 1737fce8a7bbSJon Mason EXPORT_SYMBOL_GPL(ntb_transport_max_size); 1738