1 // SPDX-License-Identifier: (GPL-2.0+ OR BSD-3-Clause) 2 /* 3 * Copyright 2014-2016 Freescale Semiconductor Inc. 4 * Copyright NXP 2016 5 * 6 */ 7 8 #include <linux/types.h> 9 #include <linux/init.h> 10 #include <linux/module.h> 11 #include <linux/platform_device.h> 12 #include <linux/interrupt.h> 13 #include <linux/dma-mapping.h> 14 #include <linux/delay.h> 15 #include <linux/io.h> 16 #include <linux/sys_soc.h> 17 18 #include <linux/fsl/mc.h> 19 #include <soc/fsl/dpaa2-io.h> 20 21 #include "qbman-portal.h" 22 #include "dpio.h" 23 #include "dpio-cmd.h" 24 25 MODULE_LICENSE("Dual BSD/GPL"); 26 MODULE_AUTHOR("Freescale Semiconductor, Inc"); 27 MODULE_DESCRIPTION("DPIO Driver"); 28 29 struct dpio_priv { 30 struct dpaa2_io *io; 31 }; 32 33 static cpumask_var_t cpus_unused_mask; 34 35 static const struct soc_device_attribute ls1088a_soc[] = { 36 {.family = "QorIQ LS1088A"}, 37 { /* sentinel */ } 38 }; 39 40 static const struct soc_device_attribute ls2080a_soc[] = { 41 {.family = "QorIQ LS2080A"}, 42 { /* sentinel */ } 43 }; 44 45 static const struct soc_device_attribute ls2088a_soc[] = { 46 {.family = "QorIQ LS2088A"}, 47 { /* sentinel */ } 48 }; 49 50 static const struct soc_device_attribute lx2160a_soc[] = { 51 {.family = "QorIQ LX2160A"}, 52 { /* sentinel */ } 53 }; 54 55 static int dpaa2_dpio_get_cluster_sdest(struct fsl_mc_device *dpio_dev, int cpu) 56 { 57 int cluster_base, cluster_size; 58 59 if (soc_device_match(ls1088a_soc)) { 60 cluster_base = 2; 61 cluster_size = 4; 62 } else if (soc_device_match(ls2080a_soc) || 63 soc_device_match(ls2088a_soc) || 64 soc_device_match(lx2160a_soc)) { 65 cluster_base = 0; 66 cluster_size = 2; 67 } else { 68 dev_err(&dpio_dev->dev, "unknown SoC version\n"); 69 return -1; 70 } 71 72 return cluster_base + cpu / cluster_size; 73 } 74 75 static irqreturn_t dpio_irq_handler(int irq_num, void *arg) 76 { 77 struct device *dev = (struct device *)arg; 78 struct dpio_priv *priv = dev_get_drvdata(dev); 79 80 return dpaa2_io_irq(priv->io); 81 } 82 83 static void unregister_dpio_irq_handlers(struct fsl_mc_device *dpio_dev) 84 { 85 struct fsl_mc_device_irq *irq; 86 87 irq = dpio_dev->irqs[0]; 88 89 /* clear the affinity hint */ 90 irq_set_affinity_hint(irq->virq, NULL); 91 } 92 93 static int register_dpio_irq_handlers(struct fsl_mc_device *dpio_dev, int cpu) 94 { 95 int error; 96 struct fsl_mc_device_irq *irq; 97 98 irq = dpio_dev->irqs[0]; 99 error = devm_request_irq(&dpio_dev->dev, 100 irq->virq, 101 dpio_irq_handler, 102 0, 103 dev_name(&dpio_dev->dev), 104 &dpio_dev->dev); 105 if (error < 0) { 106 dev_err(&dpio_dev->dev, 107 "devm_request_irq() failed: %d\n", 108 error); 109 return error; 110 } 111 112 /* set the affinity hint */ 113 if (irq_set_affinity_hint(irq->virq, cpumask_of(cpu))) 114 dev_err(&dpio_dev->dev, 115 "irq_set_affinity failed irq %d cpu %d\n", 116 irq->virq, cpu); 117 118 return 0; 119 } 120 121 static int dpaa2_dpio_probe(struct fsl_mc_device *dpio_dev) 122 { 123 struct dpio_attr dpio_attrs; 124 struct dpaa2_io_desc desc; 125 struct dpio_priv *priv; 126 int err = -ENOMEM; 127 struct device *dev = &dpio_dev->dev; 128 int possible_next_cpu; 129 int sdest; 130 131 priv = devm_kzalloc(dev, sizeof(*priv), GFP_KERNEL); 132 if (!priv) 133 goto err_priv_alloc; 134 135 dev_set_drvdata(dev, priv); 136 137 err = fsl_mc_portal_allocate(dpio_dev, 0, &dpio_dev->mc_io); 138 if (err) { 139 dev_dbg(dev, "MC portal allocation failed\n"); 140 err = -EPROBE_DEFER; 141 goto err_priv_alloc; 142 } 143 144 err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id, 145 &dpio_dev->mc_handle); 146 if (err) { 147 dev_err(dev, "dpio_open() failed\n"); 148 goto err_open; 149 } 150 151 err = dpio_reset(dpio_dev->mc_io, 0, dpio_dev->mc_handle); 152 if (err) { 153 dev_err(dev, "dpio_reset() failed\n"); 154 goto err_reset; 155 } 156 157 err = dpio_get_attributes(dpio_dev->mc_io, 0, dpio_dev->mc_handle, 158 &dpio_attrs); 159 if (err) { 160 dev_err(dev, "dpio_get_attributes() failed %d\n", err); 161 goto err_get_attr; 162 } 163 desc.qman_version = dpio_attrs.qbman_version; 164 desc.qman_clk = dpio_attrs.clk; 165 166 err = dpio_enable(dpio_dev->mc_io, 0, dpio_dev->mc_handle); 167 if (err) { 168 dev_err(dev, "dpio_enable() failed %d\n", err); 169 goto err_get_attr; 170 } 171 172 /* initialize DPIO descriptor */ 173 desc.receives_notifications = dpio_attrs.num_priorities ? 1 : 0; 174 desc.has_8prio = dpio_attrs.num_priorities == 8 ? 1 : 0; 175 desc.dpio_id = dpio_dev->obj_desc.id; 176 177 /* get the cpu to use for the affinity hint */ 178 possible_next_cpu = cpumask_first(cpus_unused_mask); 179 if (possible_next_cpu >= nr_cpu_ids) { 180 dev_err(dev, "probe failed. Number of DPIOs exceeds NR_CPUS.\n"); 181 err = -ERANGE; 182 goto err_allocate_irqs; 183 } 184 desc.cpu = possible_next_cpu; 185 cpumask_clear_cpu(possible_next_cpu, cpus_unused_mask); 186 187 sdest = dpaa2_dpio_get_cluster_sdest(dpio_dev, desc.cpu); 188 if (sdest >= 0) { 189 err = dpio_set_stashing_destination(dpio_dev->mc_io, 0, 190 dpio_dev->mc_handle, 191 sdest); 192 if (err) 193 dev_err(dev, "dpio_set_stashing_destination failed for cpu%d\n", 194 desc.cpu); 195 } 196 197 if (dpio_dev->obj_desc.region_count < 3) { 198 /* No support for DDR backed portals, use classic mapping */ 199 /* 200 * Set the CENA regs to be the cache inhibited area of the 201 * portal to avoid coherency issues if a user migrates to 202 * another core. 203 */ 204 desc.regs_cena = devm_memremap(dev, dpio_dev->regions[1].start, 205 resource_size(&dpio_dev->regions[1]), 206 MEMREMAP_WC); 207 } else { 208 desc.regs_cena = devm_memremap(dev, dpio_dev->regions[2].start, 209 resource_size(&dpio_dev->regions[2]), 210 MEMREMAP_WB); 211 } 212 213 if (IS_ERR(desc.regs_cena)) { 214 dev_err(dev, "devm_memremap failed\n"); 215 err = PTR_ERR(desc.regs_cena); 216 goto err_allocate_irqs; 217 } 218 219 desc.regs_cinh = devm_ioremap(dev, dpio_dev->regions[1].start, 220 resource_size(&dpio_dev->regions[1])); 221 if (!desc.regs_cinh) { 222 err = -ENOMEM; 223 dev_err(dev, "devm_ioremap failed\n"); 224 goto err_allocate_irqs; 225 } 226 227 err = fsl_mc_allocate_irqs(dpio_dev); 228 if (err) { 229 dev_err(dev, "fsl_mc_allocate_irqs failed. err=%d\n", err); 230 goto err_allocate_irqs; 231 } 232 233 priv->io = dpaa2_io_create(&desc, dev); 234 if (!priv->io) { 235 dev_err(dev, "dpaa2_io_create failed\n"); 236 err = -ENOMEM; 237 goto err_dpaa2_io_create; 238 } 239 240 err = register_dpio_irq_handlers(dpio_dev, desc.cpu); 241 if (err) 242 goto err_register_dpio_irq; 243 244 dev_info(dev, "probed\n"); 245 dev_dbg(dev, " receives_notifications = %d\n", 246 desc.receives_notifications); 247 dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle); 248 249 return 0; 250 251 err_dpaa2_io_create: 252 unregister_dpio_irq_handlers(dpio_dev); 253 err_register_dpio_irq: 254 fsl_mc_free_irqs(dpio_dev); 255 err_allocate_irqs: 256 dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle); 257 err_get_attr: 258 err_reset: 259 dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle); 260 err_open: 261 fsl_mc_portal_free(dpio_dev->mc_io); 262 err_priv_alloc: 263 return err; 264 } 265 266 /* Tear down interrupts for a given DPIO object */ 267 static void dpio_teardown_irqs(struct fsl_mc_device *dpio_dev) 268 { 269 unregister_dpio_irq_handlers(dpio_dev); 270 fsl_mc_free_irqs(dpio_dev); 271 } 272 273 static int dpaa2_dpio_remove(struct fsl_mc_device *dpio_dev) 274 { 275 struct device *dev; 276 struct dpio_priv *priv; 277 int err = 0, cpu; 278 279 dev = &dpio_dev->dev; 280 priv = dev_get_drvdata(dev); 281 cpu = dpaa2_io_get_cpu(priv->io); 282 283 dpaa2_io_down(priv->io); 284 285 dpio_teardown_irqs(dpio_dev); 286 287 cpumask_set_cpu(cpu, cpus_unused_mask); 288 289 err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id, 290 &dpio_dev->mc_handle); 291 if (err) { 292 dev_err(dev, "dpio_open() failed\n"); 293 goto err_open; 294 } 295 296 dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle); 297 298 dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle); 299 300 fsl_mc_portal_free(dpio_dev->mc_io); 301 302 return 0; 303 304 err_open: 305 fsl_mc_portal_free(dpio_dev->mc_io); 306 307 return err; 308 } 309 310 static const struct fsl_mc_device_id dpaa2_dpio_match_id_table[] = { 311 { 312 .vendor = FSL_MC_VENDOR_FREESCALE, 313 .obj_type = "dpio", 314 }, 315 { .vendor = 0x0 } 316 }; 317 318 static struct fsl_mc_driver dpaa2_dpio_driver = { 319 .driver = { 320 .name = KBUILD_MODNAME, 321 .owner = THIS_MODULE, 322 }, 323 .probe = dpaa2_dpio_probe, 324 .remove = dpaa2_dpio_remove, 325 .match_id_table = dpaa2_dpio_match_id_table 326 }; 327 328 static int dpio_driver_init(void) 329 { 330 if (!zalloc_cpumask_var(&cpus_unused_mask, GFP_KERNEL)) 331 return -ENOMEM; 332 cpumask_copy(cpus_unused_mask, cpu_online_mask); 333 334 return fsl_mc_driver_register(&dpaa2_dpio_driver); 335 } 336 337 static void dpio_driver_exit(void) 338 { 339 free_cpumask_var(cpus_unused_mask); 340 fsl_mc_driver_unregister(&dpaa2_dpio_driver); 341 } 342 module_init(dpio_driver_init); 343 module_exit(dpio_driver_exit); 344