xref: /openbmc/linux/drivers/soc/fsl/dpio/dpio-driver.c (revision 3213486f)
1 // SPDX-License-Identifier: (GPL-2.0+ OR BSD-3-Clause)
2 /*
3  * Copyright 2014-2016 Freescale Semiconductor Inc.
4  * Copyright NXP 2016
5  *
6  */
7 
8 #include <linux/types.h>
9 #include <linux/init.h>
10 #include <linux/module.h>
11 #include <linux/platform_device.h>
12 #include <linux/interrupt.h>
13 #include <linux/msi.h>
14 #include <linux/dma-mapping.h>
15 #include <linux/delay.h>
16 #include <linux/io.h>
17 #include <linux/sys_soc.h>
18 
19 #include <linux/fsl/mc.h>
20 #include <soc/fsl/dpaa2-io.h>
21 
22 #include "qbman-portal.h"
23 #include "dpio.h"
24 #include "dpio-cmd.h"
25 
26 MODULE_LICENSE("Dual BSD/GPL");
27 MODULE_AUTHOR("Freescale Semiconductor, Inc");
28 MODULE_DESCRIPTION("DPIO Driver");
29 
30 struct dpio_priv {
31 	struct dpaa2_io *io;
32 };
33 
34 static cpumask_var_t cpus_unused_mask;
35 
36 static const struct soc_device_attribute ls1088a_soc[] = {
37 	{.family = "QorIQ LS1088A"},
38 	{ /* sentinel */ }
39 };
40 
41 static const struct soc_device_attribute ls2080a_soc[] = {
42 	{.family = "QorIQ LS2080A"},
43 	{ /* sentinel */ }
44 };
45 
46 static const struct soc_device_attribute ls2088a_soc[] = {
47 	{.family = "QorIQ LS2088A"},
48 	{ /* sentinel */ }
49 };
50 
51 static const struct soc_device_attribute lx2160a_soc[] = {
52 	{.family = "QorIQ LX2160A"},
53 	{ /* sentinel */ }
54 };
55 
56 static int dpaa2_dpio_get_cluster_sdest(struct fsl_mc_device *dpio_dev, int cpu)
57 {
58 	int cluster_base, cluster_size;
59 
60 	if (soc_device_match(ls1088a_soc)) {
61 		cluster_base = 2;
62 		cluster_size = 4;
63 	} else if (soc_device_match(ls2080a_soc) ||
64 		   soc_device_match(ls2088a_soc) ||
65 		   soc_device_match(lx2160a_soc)) {
66 		cluster_base = 0;
67 		cluster_size = 2;
68 	} else {
69 		dev_err(&dpio_dev->dev, "unknown SoC version\n");
70 		return -1;
71 	}
72 
73 	return cluster_base + cpu / cluster_size;
74 }
75 
76 static irqreturn_t dpio_irq_handler(int irq_num, void *arg)
77 {
78 	struct device *dev = (struct device *)arg;
79 	struct dpio_priv *priv = dev_get_drvdata(dev);
80 
81 	return dpaa2_io_irq(priv->io);
82 }
83 
84 static void unregister_dpio_irq_handlers(struct fsl_mc_device *dpio_dev)
85 {
86 	struct fsl_mc_device_irq *irq;
87 
88 	irq = dpio_dev->irqs[0];
89 
90 	/* clear the affinity hint */
91 	irq_set_affinity_hint(irq->msi_desc->irq, NULL);
92 }
93 
94 static int register_dpio_irq_handlers(struct fsl_mc_device *dpio_dev, int cpu)
95 {
96 	int error;
97 	struct fsl_mc_device_irq *irq;
98 	cpumask_t mask;
99 
100 	irq = dpio_dev->irqs[0];
101 	error = devm_request_irq(&dpio_dev->dev,
102 				 irq->msi_desc->irq,
103 				 dpio_irq_handler,
104 				 0,
105 				 dev_name(&dpio_dev->dev),
106 				 &dpio_dev->dev);
107 	if (error < 0) {
108 		dev_err(&dpio_dev->dev,
109 			"devm_request_irq() failed: %d\n",
110 			error);
111 		return error;
112 	}
113 
114 	/* set the affinity hint */
115 	cpumask_clear(&mask);
116 	cpumask_set_cpu(cpu, &mask);
117 	if (irq_set_affinity_hint(irq->msi_desc->irq, &mask))
118 		dev_err(&dpio_dev->dev,
119 			"irq_set_affinity failed irq %d cpu %d\n",
120 			irq->msi_desc->irq, cpu);
121 
122 	return 0;
123 }
124 
125 static int dpaa2_dpio_probe(struct fsl_mc_device *dpio_dev)
126 {
127 	struct dpio_attr dpio_attrs;
128 	struct dpaa2_io_desc desc;
129 	struct dpio_priv *priv;
130 	int err = -ENOMEM;
131 	struct device *dev = &dpio_dev->dev;
132 	int possible_next_cpu;
133 	int sdest;
134 
135 	priv = devm_kzalloc(dev, sizeof(*priv), GFP_KERNEL);
136 	if (!priv)
137 		goto err_priv_alloc;
138 
139 	dev_set_drvdata(dev, priv);
140 
141 	err = fsl_mc_portal_allocate(dpio_dev, 0, &dpio_dev->mc_io);
142 	if (err) {
143 		dev_dbg(dev, "MC portal allocation failed\n");
144 		err = -EPROBE_DEFER;
145 		goto err_priv_alloc;
146 	}
147 
148 	err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id,
149 			&dpio_dev->mc_handle);
150 	if (err) {
151 		dev_err(dev, "dpio_open() failed\n");
152 		goto err_open;
153 	}
154 
155 	err = dpio_reset(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
156 	if (err) {
157 		dev_err(dev, "dpio_reset() failed\n");
158 		goto err_reset;
159 	}
160 
161 	err = dpio_get_attributes(dpio_dev->mc_io, 0, dpio_dev->mc_handle,
162 				  &dpio_attrs);
163 	if (err) {
164 		dev_err(dev, "dpio_get_attributes() failed %d\n", err);
165 		goto err_get_attr;
166 	}
167 	desc.qman_version = dpio_attrs.qbman_version;
168 
169 	err = dpio_enable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
170 	if (err) {
171 		dev_err(dev, "dpio_enable() failed %d\n", err);
172 		goto err_get_attr;
173 	}
174 
175 	/* initialize DPIO descriptor */
176 	desc.receives_notifications = dpio_attrs.num_priorities ? 1 : 0;
177 	desc.has_8prio = dpio_attrs.num_priorities == 8 ? 1 : 0;
178 	desc.dpio_id = dpio_dev->obj_desc.id;
179 
180 	/* get the cpu to use for the affinity hint */
181 	possible_next_cpu = cpumask_first(cpus_unused_mask);
182 	if (possible_next_cpu >= nr_cpu_ids) {
183 		dev_err(dev, "probe failed. Number of DPIOs exceeds NR_CPUS.\n");
184 		err = -ERANGE;
185 		goto err_allocate_irqs;
186 	}
187 	desc.cpu = possible_next_cpu;
188 	cpumask_clear_cpu(possible_next_cpu, cpus_unused_mask);
189 
190 	sdest = dpaa2_dpio_get_cluster_sdest(dpio_dev, desc.cpu);
191 	if (sdest >= 0) {
192 		err = dpio_set_stashing_destination(dpio_dev->mc_io, 0,
193 						    dpio_dev->mc_handle,
194 						    sdest);
195 		if (err)
196 			dev_err(dev, "dpio_set_stashing_destination failed for cpu%d\n",
197 				desc.cpu);
198 	}
199 
200 	/*
201 	 * Set the CENA regs to be the cache inhibited area of the portal to
202 	 * avoid coherency issues if a user migrates to another core.
203 	 */
204 	desc.regs_cena = devm_memremap(dev, dpio_dev->regions[1].start,
205 				       resource_size(&dpio_dev->regions[1]),
206 				       MEMREMAP_WC);
207 	if (IS_ERR(desc.regs_cena)) {
208 		dev_err(dev, "devm_memremap failed\n");
209 		err = PTR_ERR(desc.regs_cena);
210 		goto err_allocate_irqs;
211 	}
212 
213 	desc.regs_cinh = devm_ioremap(dev, dpio_dev->regions[1].start,
214 				      resource_size(&dpio_dev->regions[1]));
215 	if (!desc.regs_cinh) {
216 		err = -ENOMEM;
217 		dev_err(dev, "devm_ioremap failed\n");
218 		goto err_allocate_irqs;
219 	}
220 
221 	err = fsl_mc_allocate_irqs(dpio_dev);
222 	if (err) {
223 		dev_err(dev, "fsl_mc_allocate_irqs failed. err=%d\n", err);
224 		goto err_allocate_irqs;
225 	}
226 
227 	err = register_dpio_irq_handlers(dpio_dev, desc.cpu);
228 	if (err)
229 		goto err_register_dpio_irq;
230 
231 	priv->io = dpaa2_io_create(&desc, dev);
232 	if (!priv->io) {
233 		dev_err(dev, "dpaa2_io_create failed\n");
234 		err = -ENOMEM;
235 		goto err_dpaa2_io_create;
236 	}
237 
238 	dev_info(dev, "probed\n");
239 	dev_dbg(dev, "   receives_notifications = %d\n",
240 		desc.receives_notifications);
241 	dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
242 
243 	return 0;
244 
245 err_dpaa2_io_create:
246 	unregister_dpio_irq_handlers(dpio_dev);
247 err_register_dpio_irq:
248 	fsl_mc_free_irqs(dpio_dev);
249 err_allocate_irqs:
250 	dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
251 err_get_attr:
252 err_reset:
253 	dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
254 err_open:
255 	fsl_mc_portal_free(dpio_dev->mc_io);
256 err_priv_alloc:
257 	return err;
258 }
259 
260 /* Tear down interrupts for a given DPIO object */
261 static void dpio_teardown_irqs(struct fsl_mc_device *dpio_dev)
262 {
263 	unregister_dpio_irq_handlers(dpio_dev);
264 	fsl_mc_free_irqs(dpio_dev);
265 }
266 
267 static int dpaa2_dpio_remove(struct fsl_mc_device *dpio_dev)
268 {
269 	struct device *dev;
270 	struct dpio_priv *priv;
271 	int err = 0, cpu;
272 
273 	dev = &dpio_dev->dev;
274 	priv = dev_get_drvdata(dev);
275 	cpu = dpaa2_io_get_cpu(priv->io);
276 
277 	dpaa2_io_down(priv->io);
278 
279 	dpio_teardown_irqs(dpio_dev);
280 
281 	cpumask_set_cpu(cpu, cpus_unused_mask);
282 
283 	err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id,
284 			&dpio_dev->mc_handle);
285 	if (err) {
286 		dev_err(dev, "dpio_open() failed\n");
287 		goto err_open;
288 	}
289 
290 	dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
291 
292 	dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
293 
294 	fsl_mc_portal_free(dpio_dev->mc_io);
295 
296 	return 0;
297 
298 err_open:
299 	fsl_mc_portal_free(dpio_dev->mc_io);
300 
301 	return err;
302 }
303 
304 static const struct fsl_mc_device_id dpaa2_dpio_match_id_table[] = {
305 	{
306 		.vendor = FSL_MC_VENDOR_FREESCALE,
307 		.obj_type = "dpio",
308 	},
309 	{ .vendor = 0x0 }
310 };
311 
312 static struct fsl_mc_driver dpaa2_dpio_driver = {
313 	.driver = {
314 		.name		= KBUILD_MODNAME,
315 		.owner		= THIS_MODULE,
316 	},
317 	.probe		= dpaa2_dpio_probe,
318 	.remove		= dpaa2_dpio_remove,
319 	.match_id_table = dpaa2_dpio_match_id_table
320 };
321 
322 static int dpio_driver_init(void)
323 {
324 	if (!zalloc_cpumask_var(&cpus_unused_mask, GFP_KERNEL))
325 		return -ENOMEM;
326 	cpumask_copy(cpus_unused_mask, cpu_online_mask);
327 
328 	return fsl_mc_driver_register(&dpaa2_dpio_driver);
329 }
330 
331 static void dpio_driver_exit(void)
332 {
333 	free_cpumask_var(cpus_unused_mask);
334 	fsl_mc_driver_unregister(&dpaa2_dpio_driver);
335 }
336 module_init(dpio_driver_init);
337 module_exit(dpio_driver_exit);
338