xref: /openbmc/linux/drivers/net/wireless/ralink/rt2x00/rt2x00mmio.c (revision 58e16d792a6a8c6b750f637a4649967fcac853dc)
1*1ccea77eSThomas Gleixner // SPDX-License-Identifier: GPL-2.0-or-later
233aca94dSKalle Valo /*
333aca94dSKalle Valo 	Copyright (C) 2004 - 2009 Ivo van Doorn <IvDoorn@gmail.com>
433aca94dSKalle Valo 	<http://rt2x00.serialmonkey.com>
533aca94dSKalle Valo 
633aca94dSKalle Valo  */
733aca94dSKalle Valo 
833aca94dSKalle Valo /*
933aca94dSKalle Valo 	Module: rt2x00mmio
1033aca94dSKalle Valo 	Abstract: rt2x00 generic mmio device routines.
1133aca94dSKalle Valo  */
1233aca94dSKalle Valo 
1333aca94dSKalle Valo #include <linux/dma-mapping.h>
1433aca94dSKalle Valo #include <linux/kernel.h>
1533aca94dSKalle Valo #include <linux/module.h>
1633aca94dSKalle Valo #include <linux/slab.h>
1733aca94dSKalle Valo 
1833aca94dSKalle Valo #include "rt2x00.h"
1933aca94dSKalle Valo #include "rt2x00mmio.h"
2033aca94dSKalle Valo 
2133aca94dSKalle Valo /*
2233aca94dSKalle Valo  * Register access.
2333aca94dSKalle Valo  */
rt2x00mmio_regbusy_read(struct rt2x00_dev * rt2x00dev,const unsigned int offset,const struct rt2x00_field32 field,u32 * reg)2433aca94dSKalle Valo int rt2x00mmio_regbusy_read(struct rt2x00_dev *rt2x00dev,
2533aca94dSKalle Valo 			    const unsigned int offset,
2633aca94dSKalle Valo 			    const struct rt2x00_field32 field,
2733aca94dSKalle Valo 			    u32 *reg)
2833aca94dSKalle Valo {
2933aca94dSKalle Valo 	unsigned int i;
3033aca94dSKalle Valo 
3133aca94dSKalle Valo 	if (!test_bit(DEVICE_STATE_PRESENT, &rt2x00dev->flags))
3233aca94dSKalle Valo 		return 0;
3333aca94dSKalle Valo 
3433aca94dSKalle Valo 	for (i = 0; i < REGISTER_BUSY_COUNT; i++) {
353954b4e3SArnd Bergmann 		*reg = rt2x00mmio_register_read(rt2x00dev, offset);
3633aca94dSKalle Valo 		if (!rt2x00_get_field32(*reg, field))
3733aca94dSKalle Valo 			return 1;
3833aca94dSKalle Valo 		udelay(REGISTER_BUSY_DELAY);
3933aca94dSKalle Valo 	}
4033aca94dSKalle Valo 
4133aca94dSKalle Valo 	printk_once(KERN_ERR "%s() Indirect register access failed: "
4233aca94dSKalle Valo 	      "offset=0x%.08x, value=0x%.08x\n", __func__, offset, *reg);
4333aca94dSKalle Valo 	*reg = ~0;
4433aca94dSKalle Valo 
4533aca94dSKalle Valo 	return 0;
4633aca94dSKalle Valo }
4733aca94dSKalle Valo EXPORT_SYMBOL_GPL(rt2x00mmio_regbusy_read);
4833aca94dSKalle Valo 
rt2x00mmio_rxdone(struct rt2x00_dev * rt2x00dev)4933aca94dSKalle Valo bool rt2x00mmio_rxdone(struct rt2x00_dev *rt2x00dev)
5033aca94dSKalle Valo {
5133aca94dSKalle Valo 	struct data_queue *queue = rt2x00dev->rx;
5233aca94dSKalle Valo 	struct queue_entry *entry;
5333aca94dSKalle Valo 	struct queue_entry_priv_mmio *entry_priv;
5433aca94dSKalle Valo 	struct skb_frame_desc *skbdesc;
5533aca94dSKalle Valo 	int max_rx = 16;
5633aca94dSKalle Valo 
5733aca94dSKalle Valo 	while (--max_rx) {
5833aca94dSKalle Valo 		entry = rt2x00queue_get_entry(queue, Q_INDEX);
5933aca94dSKalle Valo 		entry_priv = entry->priv_data;
6033aca94dSKalle Valo 
6133aca94dSKalle Valo 		if (rt2x00dev->ops->lib->get_entry_state(entry))
6233aca94dSKalle Valo 			break;
6333aca94dSKalle Valo 
6433aca94dSKalle Valo 		/*
6533aca94dSKalle Valo 		 * Fill in desc fields of the skb descriptor
6633aca94dSKalle Valo 		 */
6733aca94dSKalle Valo 		skbdesc = get_skb_frame_desc(entry->skb);
6833aca94dSKalle Valo 		skbdesc->desc = entry_priv->desc;
6933aca94dSKalle Valo 		skbdesc->desc_len = entry->queue->desc_size;
7033aca94dSKalle Valo 
7133aca94dSKalle Valo 		/*
7233aca94dSKalle Valo 		 * DMA is already done, notify rt2x00lib that
7333aca94dSKalle Valo 		 * it finished successfully.
7433aca94dSKalle Valo 		 */
7533aca94dSKalle Valo 		rt2x00lib_dmastart(entry);
7633aca94dSKalle Valo 		rt2x00lib_dmadone(entry);
7733aca94dSKalle Valo 
7833aca94dSKalle Valo 		/*
7933aca94dSKalle Valo 		 * Send the frame to rt2x00lib for further processing.
8033aca94dSKalle Valo 		 */
8133aca94dSKalle Valo 		rt2x00lib_rxdone(entry, GFP_ATOMIC);
8233aca94dSKalle Valo 	}
8333aca94dSKalle Valo 
8433aca94dSKalle Valo 	return !max_rx;
8533aca94dSKalle Valo }
8633aca94dSKalle Valo EXPORT_SYMBOL_GPL(rt2x00mmio_rxdone);
8733aca94dSKalle Valo 
rt2x00mmio_flush_queue(struct data_queue * queue,bool drop)8833aca94dSKalle Valo void rt2x00mmio_flush_queue(struct data_queue *queue, bool drop)
8933aca94dSKalle Valo {
9033aca94dSKalle Valo 	unsigned int i;
9133aca94dSKalle Valo 
9233aca94dSKalle Valo 	for (i = 0; !rt2x00queue_empty(queue) && i < 10; i++)
93cfe82fbdSStanislaw Gruszka 		msleep(50);
9433aca94dSKalle Valo }
9533aca94dSKalle Valo EXPORT_SYMBOL_GPL(rt2x00mmio_flush_queue);
9633aca94dSKalle Valo 
9733aca94dSKalle Valo /*
9833aca94dSKalle Valo  * Device initialization handlers.
9933aca94dSKalle Valo  */
rt2x00mmio_alloc_queue_dma(struct rt2x00_dev * rt2x00dev,struct data_queue * queue)10033aca94dSKalle Valo static int rt2x00mmio_alloc_queue_dma(struct rt2x00_dev *rt2x00dev,
10133aca94dSKalle Valo 				      struct data_queue *queue)
10233aca94dSKalle Valo {
10333aca94dSKalle Valo 	struct queue_entry_priv_mmio *entry_priv;
10433aca94dSKalle Valo 	void *addr;
10533aca94dSKalle Valo 	dma_addr_t dma;
10633aca94dSKalle Valo 	unsigned int i;
10733aca94dSKalle Valo 
10833aca94dSKalle Valo 	/*
10933aca94dSKalle Valo 	 * Allocate DMA memory for descriptor and buffer.
11033aca94dSKalle Valo 	 */
111750afb08SLuis Chamberlain 	addr = dma_alloc_coherent(rt2x00dev->dev,
11233aca94dSKalle Valo 				  queue->limit * queue->desc_size, &dma,
11333aca94dSKalle Valo 				  GFP_KERNEL);
11433aca94dSKalle Valo 	if (!addr)
11533aca94dSKalle Valo 		return -ENOMEM;
11633aca94dSKalle Valo 
11733aca94dSKalle Valo 	/*
11833aca94dSKalle Valo 	 * Initialize all queue entries to contain valid addresses.
11933aca94dSKalle Valo 	 */
12033aca94dSKalle Valo 	for (i = 0; i < queue->limit; i++) {
12133aca94dSKalle Valo 		entry_priv = queue->entries[i].priv_data;
12233aca94dSKalle Valo 		entry_priv->desc = addr + i * queue->desc_size;
12333aca94dSKalle Valo 		entry_priv->desc_dma = dma + i * queue->desc_size;
12433aca94dSKalle Valo 	}
12533aca94dSKalle Valo 
12633aca94dSKalle Valo 	return 0;
12733aca94dSKalle Valo }
12833aca94dSKalle Valo 
rt2x00mmio_free_queue_dma(struct rt2x00_dev * rt2x00dev,struct data_queue * queue)12933aca94dSKalle Valo static void rt2x00mmio_free_queue_dma(struct rt2x00_dev *rt2x00dev,
13033aca94dSKalle Valo 				      struct data_queue *queue)
13133aca94dSKalle Valo {
13233aca94dSKalle Valo 	struct queue_entry_priv_mmio *entry_priv =
13333aca94dSKalle Valo 	    queue->entries[0].priv_data;
13433aca94dSKalle Valo 
13533aca94dSKalle Valo 	if (entry_priv->desc)
13633aca94dSKalle Valo 		dma_free_coherent(rt2x00dev->dev,
13733aca94dSKalle Valo 				  queue->limit * queue->desc_size,
13833aca94dSKalle Valo 				  entry_priv->desc, entry_priv->desc_dma);
13933aca94dSKalle Valo 	entry_priv->desc = NULL;
14033aca94dSKalle Valo }
14133aca94dSKalle Valo 
rt2x00mmio_initialize(struct rt2x00_dev * rt2x00dev)14233aca94dSKalle Valo int rt2x00mmio_initialize(struct rt2x00_dev *rt2x00dev)
14333aca94dSKalle Valo {
14433aca94dSKalle Valo 	struct data_queue *queue;
14533aca94dSKalle Valo 	int status;
14633aca94dSKalle Valo 
14733aca94dSKalle Valo 	/*
14833aca94dSKalle Valo 	 * Allocate DMA
14933aca94dSKalle Valo 	 */
15033aca94dSKalle Valo 	queue_for_each(rt2x00dev, queue) {
15133aca94dSKalle Valo 		status = rt2x00mmio_alloc_queue_dma(rt2x00dev, queue);
15233aca94dSKalle Valo 		if (status)
15333aca94dSKalle Valo 			goto exit;
15433aca94dSKalle Valo 	}
15533aca94dSKalle Valo 
15633aca94dSKalle Valo 	/*
15733aca94dSKalle Valo 	 * Register interrupt handler.
15833aca94dSKalle Valo 	 */
15933aca94dSKalle Valo 	status = request_irq(rt2x00dev->irq,
16033aca94dSKalle Valo 			     rt2x00dev->ops->lib->irq_handler,
16133aca94dSKalle Valo 			     IRQF_SHARED, rt2x00dev->name, rt2x00dev);
16233aca94dSKalle Valo 	if (status) {
16333aca94dSKalle Valo 		rt2x00_err(rt2x00dev, "IRQ %d allocation failed (error %d)\n",
16433aca94dSKalle Valo 			   rt2x00dev->irq, status);
16533aca94dSKalle Valo 		goto exit;
16633aca94dSKalle Valo 	}
16733aca94dSKalle Valo 
16833aca94dSKalle Valo 	return 0;
16933aca94dSKalle Valo 
17033aca94dSKalle Valo exit:
17133aca94dSKalle Valo 	queue_for_each(rt2x00dev, queue)
17233aca94dSKalle Valo 		rt2x00mmio_free_queue_dma(rt2x00dev, queue);
17333aca94dSKalle Valo 
17433aca94dSKalle Valo 	return status;
17533aca94dSKalle Valo }
17633aca94dSKalle Valo EXPORT_SYMBOL_GPL(rt2x00mmio_initialize);
17733aca94dSKalle Valo 
rt2x00mmio_uninitialize(struct rt2x00_dev * rt2x00dev)17833aca94dSKalle Valo void rt2x00mmio_uninitialize(struct rt2x00_dev *rt2x00dev)
17933aca94dSKalle Valo {
18033aca94dSKalle Valo 	struct data_queue *queue;
18133aca94dSKalle Valo 
18233aca94dSKalle Valo 	/*
18333aca94dSKalle Valo 	 * Free irq line.
18433aca94dSKalle Valo 	 */
18533aca94dSKalle Valo 	free_irq(rt2x00dev->irq, rt2x00dev);
18633aca94dSKalle Valo 
18733aca94dSKalle Valo 	/*
18833aca94dSKalle Valo 	 * Free DMA
18933aca94dSKalle Valo 	 */
19033aca94dSKalle Valo 	queue_for_each(rt2x00dev, queue)
19133aca94dSKalle Valo 		rt2x00mmio_free_queue_dma(rt2x00dev, queue);
19233aca94dSKalle Valo }
19333aca94dSKalle Valo EXPORT_SYMBOL_GPL(rt2x00mmio_uninitialize);
19433aca94dSKalle Valo 
19533aca94dSKalle Valo /*
19633aca94dSKalle Valo  * rt2x00mmio module information.
19733aca94dSKalle Valo  */
19833aca94dSKalle Valo MODULE_AUTHOR(DRV_PROJECT);
19933aca94dSKalle Valo MODULE_VERSION(DRV_VERSION);
20033aca94dSKalle Valo MODULE_DESCRIPTION("rt2x00 mmio library");
20133aca94dSKalle Valo MODULE_LICENSE("GPL");
202