xref: /openbmc/linux/kernel/irq_work.c (revision ef1f0982)
1e360adbeSPeter Zijlstra /*
2e360adbeSPeter Zijlstra  * Copyright (C) 2010 Red Hat, Inc., Peter Zijlstra <pzijlstr@redhat.com>
3e360adbeSPeter Zijlstra  *
4e360adbeSPeter Zijlstra  * Provides a framework for enqueueing and running callbacks from hardirq
5e360adbeSPeter Zijlstra  * context. The enqueueing is NMI-safe.
6e360adbeSPeter Zijlstra  */
7e360adbeSPeter Zijlstra 
883e3fa6fSPaul Gortmaker #include <linux/bug.h>
9e360adbeSPeter Zijlstra #include <linux/kernel.h>
109984de1aSPaul Gortmaker #include <linux/export.h>
11e360adbeSPeter Zijlstra #include <linux/irq_work.h>
12967d1f90SPaul Gortmaker #include <linux/percpu.h>
13e360adbeSPeter Zijlstra #include <linux/hardirq.h>
14ef1f0982SChris Metcalf #include <linux/irqflags.h>
15967d1f90SPaul Gortmaker #include <asm/processor.h>
16e360adbeSPeter Zijlstra 
17e360adbeSPeter Zijlstra /*
18e360adbeSPeter Zijlstra  * An entry can be in one of four states:
19e360adbeSPeter Zijlstra  *
20e360adbeSPeter Zijlstra  * free	     NULL, 0 -> {claimed}       : free to be used
21e360adbeSPeter Zijlstra  * claimed   NULL, 3 -> {pending}       : claimed to be enqueued
22e360adbeSPeter Zijlstra  * pending   next, 3 -> {busy}          : queued, pending callback
23e360adbeSPeter Zijlstra  * busy      NULL, 2 -> {free, claimed} : callback in progress, can be claimed
24e360adbeSPeter Zijlstra  */
25e360adbeSPeter Zijlstra 
26e360adbeSPeter Zijlstra #define IRQ_WORK_PENDING	1UL
27e360adbeSPeter Zijlstra #define IRQ_WORK_BUSY		2UL
28e360adbeSPeter Zijlstra #define IRQ_WORK_FLAGS		3UL
29e360adbeSPeter Zijlstra 
3038aaf809SHuang Ying static DEFINE_PER_CPU(struct llist_head, irq_work_list);
31e360adbeSPeter Zijlstra 
32e360adbeSPeter Zijlstra /*
33e360adbeSPeter Zijlstra  * Claim the entry so that no one else will poke at it.
34e360adbeSPeter Zijlstra  */
3538aaf809SHuang Ying static bool irq_work_claim(struct irq_work *work)
36e360adbeSPeter Zijlstra {
3738aaf809SHuang Ying 	unsigned long flags, nflags;
38e360adbeSPeter Zijlstra 
3938aaf809SHuang Ying 	for (;;) {
4038aaf809SHuang Ying 		flags = work->flags;
4138aaf809SHuang Ying 		if (flags & IRQ_WORK_PENDING)
42e360adbeSPeter Zijlstra 			return false;
4338aaf809SHuang Ying 		nflags = flags | IRQ_WORK_FLAGS;
4438aaf809SHuang Ying 		if (cmpxchg(&work->flags, flags, nflags) == flags)
4538aaf809SHuang Ying 			break;
4638aaf809SHuang Ying 		cpu_relax();
4738aaf809SHuang Ying 	}
48e360adbeSPeter Zijlstra 
49e360adbeSPeter Zijlstra 	return true;
50e360adbeSPeter Zijlstra }
51e360adbeSPeter Zijlstra 
52e360adbeSPeter Zijlstra void __weak arch_irq_work_raise(void)
53e360adbeSPeter Zijlstra {
54e360adbeSPeter Zijlstra 	/*
55e360adbeSPeter Zijlstra 	 * Lame architectures will get the timer tick callback
56e360adbeSPeter Zijlstra 	 */
57e360adbeSPeter Zijlstra }
58e360adbeSPeter Zijlstra 
59e360adbeSPeter Zijlstra /*
60e360adbeSPeter Zijlstra  * Queue the entry and raise the IPI if needed.
61e360adbeSPeter Zijlstra  */
6238aaf809SHuang Ying static void __irq_work_queue(struct irq_work *work)
63e360adbeSPeter Zijlstra {
6438aaf809SHuang Ying 	bool empty;
65e360adbeSPeter Zijlstra 
6620b87691SChristoph Lameter 	preempt_disable();
67e360adbeSPeter Zijlstra 
6838aaf809SHuang Ying 	empty = llist_add(&work->llnode, &__get_cpu_var(irq_work_list));
69e360adbeSPeter Zijlstra 	/* The list was empty, raise self-interrupt to start processing. */
7038aaf809SHuang Ying 	if (empty)
71e360adbeSPeter Zijlstra 		arch_irq_work_raise();
72e360adbeSPeter Zijlstra 
7320b87691SChristoph Lameter 	preempt_enable();
74e360adbeSPeter Zijlstra }
75e360adbeSPeter Zijlstra 
76e360adbeSPeter Zijlstra /*
77e360adbeSPeter Zijlstra  * Enqueue the irq_work @entry, returns true on success, failure when the
78e360adbeSPeter Zijlstra  * @entry was already enqueued by someone else.
79e360adbeSPeter Zijlstra  *
80e360adbeSPeter Zijlstra  * Can be re-enqueued while the callback is still in progress.
81e360adbeSPeter Zijlstra  */
8238aaf809SHuang Ying bool irq_work_queue(struct irq_work *work)
83e360adbeSPeter Zijlstra {
8438aaf809SHuang Ying 	if (!irq_work_claim(work)) {
85e360adbeSPeter Zijlstra 		/*
86e360adbeSPeter Zijlstra 		 * Already enqueued, can't do!
87e360adbeSPeter Zijlstra 		 */
88e360adbeSPeter Zijlstra 		return false;
89e360adbeSPeter Zijlstra 	}
90e360adbeSPeter Zijlstra 
9138aaf809SHuang Ying 	__irq_work_queue(work);
92e360adbeSPeter Zijlstra 	return true;
93e360adbeSPeter Zijlstra }
94e360adbeSPeter Zijlstra EXPORT_SYMBOL_GPL(irq_work_queue);
95e360adbeSPeter Zijlstra 
96e360adbeSPeter Zijlstra /*
97e360adbeSPeter Zijlstra  * Run the irq_work entries on this cpu. Requires to be ran from hardirq
98e360adbeSPeter Zijlstra  * context with local IRQs disabled.
99e360adbeSPeter Zijlstra  */
100e360adbeSPeter Zijlstra void irq_work_run(void)
101e360adbeSPeter Zijlstra {
10238aaf809SHuang Ying 	struct irq_work *work;
10338aaf809SHuang Ying 	struct llist_head *this_list;
10438aaf809SHuang Ying 	struct llist_node *llnode;
105e360adbeSPeter Zijlstra 
10638aaf809SHuang Ying 	this_list = &__get_cpu_var(irq_work_list);
10738aaf809SHuang Ying 	if (llist_empty(this_list))
108e360adbeSPeter Zijlstra 		return;
109e360adbeSPeter Zijlstra 
110e360adbeSPeter Zijlstra 	BUG_ON(!in_irq());
111e360adbeSPeter Zijlstra 	BUG_ON(!irqs_disabled());
112e360adbeSPeter Zijlstra 
11338aaf809SHuang Ying 	llnode = llist_del_all(this_list);
11438aaf809SHuang Ying 	while (llnode != NULL) {
11538aaf809SHuang Ying 		work = llist_entry(llnode, struct irq_work, llnode);
11620b87691SChristoph Lameter 
117924f8f5aSPeter Zijlstra 		llnode = llist_next(llnode);
118e360adbeSPeter Zijlstra 
119e360adbeSPeter Zijlstra 		/*
12038aaf809SHuang Ying 		 * Clear the PENDING bit, after this point the @work
121e360adbeSPeter Zijlstra 		 * can be re-used.
122e360adbeSPeter Zijlstra 		 */
12338aaf809SHuang Ying 		work->flags = IRQ_WORK_BUSY;
12438aaf809SHuang Ying 		work->func(work);
125e360adbeSPeter Zijlstra 		/*
126e360adbeSPeter Zijlstra 		 * Clear the BUSY bit and return to the free state if
127e360adbeSPeter Zijlstra 		 * no-one else claimed it meanwhile.
128e360adbeSPeter Zijlstra 		 */
12938aaf809SHuang Ying 		(void)cmpxchg(&work->flags, IRQ_WORK_BUSY, 0);
130e360adbeSPeter Zijlstra 	}
131e360adbeSPeter Zijlstra }
132e360adbeSPeter Zijlstra EXPORT_SYMBOL_GPL(irq_work_run);
133e360adbeSPeter Zijlstra 
134e360adbeSPeter Zijlstra /*
135e360adbeSPeter Zijlstra  * Synchronize against the irq_work @entry, ensures the entry is not
136e360adbeSPeter Zijlstra  * currently in use.
137e360adbeSPeter Zijlstra  */
13838aaf809SHuang Ying void irq_work_sync(struct irq_work *work)
139e360adbeSPeter Zijlstra {
140e360adbeSPeter Zijlstra 	WARN_ON_ONCE(irqs_disabled());
141e360adbeSPeter Zijlstra 
14238aaf809SHuang Ying 	while (work->flags & IRQ_WORK_BUSY)
143e360adbeSPeter Zijlstra 		cpu_relax();
144e360adbeSPeter Zijlstra }
145e360adbeSPeter Zijlstra EXPORT_SYMBOL_GPL(irq_work_sync);
146