xref: /openbmc/linux/drivers/soc/fsl/dpio/dpio-driver.c (revision 59272ad8)
1 // SPDX-License-Identifier: (GPL-2.0+ OR BSD-3-Clause)
2 /*
3  * Copyright 2014-2016 Freescale Semiconductor Inc.
4  * Copyright NXP 2016
5  *
6  */
7 
8 #include <linux/types.h>
9 #include <linux/init.h>
10 #include <linux/module.h>
11 #include <linux/platform_device.h>
12 #include <linux/interrupt.h>
13 #include <linux/dma-mapping.h>
14 #include <linux/delay.h>
15 #include <linux/io.h>
16 #include <linux/sys_soc.h>
17 
18 #include <linux/fsl/mc.h>
19 #include <soc/fsl/dpaa2-io.h>
20 
21 #include "qbman-portal.h"
22 #include "dpio.h"
23 #include "dpio-cmd.h"
24 
25 MODULE_LICENSE("Dual BSD/GPL");
26 MODULE_AUTHOR("Freescale Semiconductor, Inc");
27 MODULE_DESCRIPTION("DPIO Driver");
28 
29 struct dpio_priv {
30 	struct dpaa2_io *io;
31 };
32 
33 static cpumask_var_t cpus_unused_mask;
34 
35 static const struct soc_device_attribute ls1088a_soc[] = {
36 	{.family = "QorIQ LS1088A"},
37 	{ /* sentinel */ }
38 };
39 
40 static const struct soc_device_attribute ls2080a_soc[] = {
41 	{.family = "QorIQ LS2080A"},
42 	{ /* sentinel */ }
43 };
44 
45 static const struct soc_device_attribute ls2088a_soc[] = {
46 	{.family = "QorIQ LS2088A"},
47 	{ /* sentinel */ }
48 };
49 
50 static const struct soc_device_attribute lx2160a_soc[] = {
51 	{.family = "QorIQ LX2160A"},
52 	{ /* sentinel */ }
53 };
54 
dpaa2_dpio_get_cluster_sdest(struct fsl_mc_device * dpio_dev,int cpu)55 static int dpaa2_dpio_get_cluster_sdest(struct fsl_mc_device *dpio_dev, int cpu)
56 {
57 	int cluster_base, cluster_size;
58 
59 	if (soc_device_match(ls1088a_soc)) {
60 		cluster_base = 2;
61 		cluster_size = 4;
62 	} else if (soc_device_match(ls2080a_soc) ||
63 		   soc_device_match(ls2088a_soc) ||
64 		   soc_device_match(lx2160a_soc)) {
65 		cluster_base = 0;
66 		cluster_size = 2;
67 	} else {
68 		dev_err(&dpio_dev->dev, "unknown SoC version\n");
69 		return -1;
70 	}
71 
72 	return cluster_base + cpu / cluster_size;
73 }
74 
dpio_irq_handler(int irq_num,void * arg)75 static irqreturn_t dpio_irq_handler(int irq_num, void *arg)
76 {
77 	struct device *dev = (struct device *)arg;
78 	struct dpio_priv *priv = dev_get_drvdata(dev);
79 
80 	return dpaa2_io_irq(priv->io);
81 }
82 
unregister_dpio_irq_handlers(struct fsl_mc_device * dpio_dev)83 static void unregister_dpio_irq_handlers(struct fsl_mc_device *dpio_dev)
84 {
85 	struct fsl_mc_device_irq *irq;
86 
87 	irq = dpio_dev->irqs[0];
88 
89 	/* clear the affinity hint */
90 	irq_set_affinity_hint(irq->virq, NULL);
91 }
92 
register_dpio_irq_handlers(struct fsl_mc_device * dpio_dev,int cpu)93 static int register_dpio_irq_handlers(struct fsl_mc_device *dpio_dev, int cpu)
94 {
95 	int error;
96 	struct fsl_mc_device_irq *irq;
97 
98 	irq = dpio_dev->irqs[0];
99 	error = devm_request_irq(&dpio_dev->dev,
100 				 irq->virq,
101 				 dpio_irq_handler,
102 				 0,
103 				 dev_name(&dpio_dev->dev),
104 				 &dpio_dev->dev);
105 	if (error < 0) {
106 		dev_err(&dpio_dev->dev,
107 			"devm_request_irq() failed: %d\n",
108 			error);
109 		return error;
110 	}
111 
112 	/* set the affinity hint */
113 	if (irq_set_affinity_hint(irq->virq, cpumask_of(cpu)))
114 		dev_err(&dpio_dev->dev,
115 			"irq_set_affinity failed irq %d cpu %d\n",
116 			irq->virq, cpu);
117 
118 	return 0;
119 }
120 
dpaa2_dpio_probe(struct fsl_mc_device * dpio_dev)121 static int dpaa2_dpio_probe(struct fsl_mc_device *dpio_dev)
122 {
123 	struct dpio_attr dpio_attrs;
124 	struct dpaa2_io_desc desc;
125 	struct dpio_priv *priv;
126 	int err = -ENOMEM;
127 	struct device *dev = &dpio_dev->dev;
128 	int possible_next_cpu;
129 	int sdest;
130 
131 	priv = devm_kzalloc(dev, sizeof(*priv), GFP_KERNEL);
132 	if (!priv)
133 		goto err_priv_alloc;
134 
135 	dev_set_drvdata(dev, priv);
136 
137 	err = fsl_mc_portal_allocate(dpio_dev, 0, &dpio_dev->mc_io);
138 	if (err) {
139 		dev_dbg(dev, "MC portal allocation failed\n");
140 		err = -EPROBE_DEFER;
141 		goto err_priv_alloc;
142 	}
143 
144 	err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id,
145 			&dpio_dev->mc_handle);
146 	if (err) {
147 		dev_err(dev, "dpio_open() failed\n");
148 		goto err_open;
149 	}
150 
151 	err = dpio_reset(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
152 	if (err) {
153 		dev_err(dev, "dpio_reset() failed\n");
154 		goto err_reset;
155 	}
156 
157 	err = dpio_get_attributes(dpio_dev->mc_io, 0, dpio_dev->mc_handle,
158 				  &dpio_attrs);
159 	if (err) {
160 		dev_err(dev, "dpio_get_attributes() failed %d\n", err);
161 		goto err_get_attr;
162 	}
163 	desc.qman_version = dpio_attrs.qbman_version;
164 	desc.qman_clk = dpio_attrs.clk;
165 
166 	err = dpio_enable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
167 	if (err) {
168 		dev_err(dev, "dpio_enable() failed %d\n", err);
169 		goto err_get_attr;
170 	}
171 
172 	/* initialize DPIO descriptor */
173 	desc.receives_notifications = dpio_attrs.num_priorities ? 1 : 0;
174 	desc.has_8prio = dpio_attrs.num_priorities == 8 ? 1 : 0;
175 	desc.dpio_id = dpio_dev->obj_desc.id;
176 
177 	/* get the cpu to use for the affinity hint */
178 	possible_next_cpu = cpumask_first(cpus_unused_mask);
179 	if (possible_next_cpu >= nr_cpu_ids) {
180 		dev_err(dev, "probe failed. Number of DPIOs exceeds NR_CPUS.\n");
181 		err = -ERANGE;
182 		goto err_allocate_irqs;
183 	}
184 	desc.cpu = possible_next_cpu;
185 	cpumask_clear_cpu(possible_next_cpu, cpus_unused_mask);
186 
187 	sdest = dpaa2_dpio_get_cluster_sdest(dpio_dev, desc.cpu);
188 	if (sdest >= 0) {
189 		err = dpio_set_stashing_destination(dpio_dev->mc_io, 0,
190 						    dpio_dev->mc_handle,
191 						    sdest);
192 		if (err)
193 			dev_err(dev, "dpio_set_stashing_destination failed for cpu%d\n",
194 				desc.cpu);
195 	}
196 
197 	if (dpio_dev->obj_desc.region_count < 3) {
198 		/* No support for DDR backed portals, use classic mapping */
199 		/*
200 		 * Set the CENA regs to be the cache inhibited area of the
201 		 * portal to avoid coherency issues if a user migrates to
202 		 * another core.
203 		 */
204 		desc.regs_cena = devm_memremap(dev, dpio_dev->regions[1].start,
205 					resource_size(&dpio_dev->regions[1]),
206 					MEMREMAP_WC);
207 	} else {
208 		desc.regs_cena = devm_memremap(dev, dpio_dev->regions[2].start,
209 					resource_size(&dpio_dev->regions[2]),
210 					MEMREMAP_WB);
211 	}
212 
213 	if (IS_ERR(desc.regs_cena)) {
214 		dev_err(dev, "devm_memremap failed\n");
215 		err = PTR_ERR(desc.regs_cena);
216 		goto err_allocate_irqs;
217 	}
218 
219 	desc.regs_cinh = devm_ioremap(dev, dpio_dev->regions[1].start,
220 				      resource_size(&dpio_dev->regions[1]));
221 	if (!desc.regs_cinh) {
222 		err = -ENOMEM;
223 		dev_err(dev, "devm_ioremap failed\n");
224 		goto err_allocate_irqs;
225 	}
226 
227 	err = fsl_mc_allocate_irqs(dpio_dev);
228 	if (err) {
229 		dev_err(dev, "fsl_mc_allocate_irqs failed. err=%d\n", err);
230 		goto err_allocate_irqs;
231 	}
232 
233 	priv->io = dpaa2_io_create(&desc, dev);
234 	if (!priv->io) {
235 		dev_err(dev, "dpaa2_io_create failed\n");
236 		err = -ENOMEM;
237 		goto err_dpaa2_io_create;
238 	}
239 
240 	err = register_dpio_irq_handlers(dpio_dev, desc.cpu);
241 	if (err)
242 		goto err_register_dpio_irq;
243 
244 	dev_info(dev, "probed\n");
245 	dev_dbg(dev, "   receives_notifications = %d\n",
246 		desc.receives_notifications);
247 	dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
248 
249 	return 0;
250 
251 err_dpaa2_io_create:
252 	unregister_dpio_irq_handlers(dpio_dev);
253 err_register_dpio_irq:
254 	fsl_mc_free_irqs(dpio_dev);
255 err_allocate_irqs:
256 	dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
257 err_get_attr:
258 err_reset:
259 	dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
260 err_open:
261 	fsl_mc_portal_free(dpio_dev->mc_io);
262 err_priv_alloc:
263 	return err;
264 }
265 
266 /* Tear down interrupts for a given DPIO object */
dpio_teardown_irqs(struct fsl_mc_device * dpio_dev)267 static void dpio_teardown_irqs(struct fsl_mc_device *dpio_dev)
268 {
269 	unregister_dpio_irq_handlers(dpio_dev);
270 	fsl_mc_free_irqs(dpio_dev);
271 }
272 
dpaa2_dpio_remove(struct fsl_mc_device * dpio_dev)273 static void dpaa2_dpio_remove(struct fsl_mc_device *dpio_dev)
274 {
275 	struct device *dev;
276 	struct dpio_priv *priv;
277 	int err = 0, cpu;
278 
279 	dev = &dpio_dev->dev;
280 	priv = dev_get_drvdata(dev);
281 	cpu = dpaa2_io_get_cpu(priv->io);
282 
283 	dpaa2_io_down(priv->io);
284 
285 	dpio_teardown_irqs(dpio_dev);
286 
287 	cpumask_set_cpu(cpu, cpus_unused_mask);
288 
289 	err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id,
290 			&dpio_dev->mc_handle);
291 	if (err) {
292 		dev_err(dev, "dpio_open() failed\n");
293 		goto err_open;
294 	}
295 
296 	dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
297 
298 	dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
299 
300 err_open:
301 	fsl_mc_portal_free(dpio_dev->mc_io);
302 }
303 
304 static const struct fsl_mc_device_id dpaa2_dpio_match_id_table[] = {
305 	{
306 		.vendor = FSL_MC_VENDOR_FREESCALE,
307 		.obj_type = "dpio",
308 	},
309 	{ .vendor = 0x0 }
310 };
311 
312 static struct fsl_mc_driver dpaa2_dpio_driver = {
313 	.driver = {
314 		.name		= KBUILD_MODNAME,
315 		.owner		= THIS_MODULE,
316 	},
317 	.probe		= dpaa2_dpio_probe,
318 	.remove		= dpaa2_dpio_remove,
319 	.match_id_table = dpaa2_dpio_match_id_table
320 };
321 
dpio_driver_init(void)322 static int dpio_driver_init(void)
323 {
324 	if (!zalloc_cpumask_var(&cpus_unused_mask, GFP_KERNEL))
325 		return -ENOMEM;
326 	cpumask_copy(cpus_unused_mask, cpu_online_mask);
327 
328 	return fsl_mc_driver_register(&dpaa2_dpio_driver);
329 }
330 
dpio_driver_exit(void)331 static void dpio_driver_exit(void)
332 {
333 	free_cpumask_var(cpus_unused_mask);
334 	fsl_mc_driver_unregister(&dpaa2_dpio_driver);
335 }
336 module_init(dpio_driver_init);
337 module_exit(dpio_driver_exit);
338