18eddac3fSPeter Zijlstra /* 28eddac3fSPeter Zijlstra * kernel/lockdep.c 38eddac3fSPeter Zijlstra * 48eddac3fSPeter Zijlstra * Runtime locking correctness validator 58eddac3fSPeter Zijlstra * 68eddac3fSPeter Zijlstra * Started by Ingo Molnar: 78eddac3fSPeter Zijlstra * 88eddac3fSPeter Zijlstra * Copyright (C) 2006,2007 Red Hat, Inc., Ingo Molnar <mingo@redhat.com> 990eec103SPeter Zijlstra * Copyright (C) 2007 Red Hat, Inc., Peter Zijlstra 108eddac3fSPeter Zijlstra * 118eddac3fSPeter Zijlstra * this code maps all the lock dependencies as they occur in a live kernel 128eddac3fSPeter Zijlstra * and will warn about the following classes of locking bugs: 138eddac3fSPeter Zijlstra * 148eddac3fSPeter Zijlstra * - lock inversion scenarios 158eddac3fSPeter Zijlstra * - circular lock dependencies 168eddac3fSPeter Zijlstra * - hardirq/softirq safe/unsafe locking bugs 178eddac3fSPeter Zijlstra * 188eddac3fSPeter Zijlstra * Bugs are reported even if the current locking scenario does not cause 198eddac3fSPeter Zijlstra * any deadlock at this point. 208eddac3fSPeter Zijlstra * 218eddac3fSPeter Zijlstra * I.e. if anytime in the past two locks were taken in a different order, 228eddac3fSPeter Zijlstra * even if it happened for another task, even if those were different 238eddac3fSPeter Zijlstra * locks (but of the same class as this lock), this code will detect it. 248eddac3fSPeter Zijlstra * 258eddac3fSPeter Zijlstra * Thanks to Arjan van de Ven for coming up with the initial idea of 268eddac3fSPeter Zijlstra * mapping lock dependencies runtime. 278eddac3fSPeter Zijlstra */ 288eddac3fSPeter Zijlstra #define DISABLE_BRANCH_PROFILING 298eddac3fSPeter Zijlstra #include <linux/mutex.h> 308eddac3fSPeter Zijlstra #include <linux/sched.h> 318eddac3fSPeter Zijlstra #include <linux/delay.h> 328eddac3fSPeter Zijlstra #include <linux/module.h> 338eddac3fSPeter Zijlstra #include <linux/proc_fs.h> 348eddac3fSPeter Zijlstra #include <linux/seq_file.h> 358eddac3fSPeter Zijlstra #include <linux/spinlock.h> 368eddac3fSPeter Zijlstra #include <linux/kallsyms.h> 378eddac3fSPeter Zijlstra #include <linux/interrupt.h> 388eddac3fSPeter Zijlstra #include <linux/stacktrace.h> 398eddac3fSPeter Zijlstra #include <linux/debug_locks.h> 408eddac3fSPeter Zijlstra #include <linux/irqflags.h> 418eddac3fSPeter Zijlstra #include <linux/utsname.h> 428eddac3fSPeter Zijlstra #include <linux/hash.h> 438eddac3fSPeter Zijlstra #include <linux/ftrace.h> 448eddac3fSPeter Zijlstra #include <linux/stringify.h> 458eddac3fSPeter Zijlstra #include <linux/bitops.h> 468eddac3fSPeter Zijlstra #include <linux/gfp.h> 478eddac3fSPeter Zijlstra #include <linux/kmemcheck.h> 488eddac3fSPeter Zijlstra 498eddac3fSPeter Zijlstra #include <asm/sections.h> 508eddac3fSPeter Zijlstra 518eddac3fSPeter Zijlstra #include "lockdep_internals.h" 528eddac3fSPeter Zijlstra 538eddac3fSPeter Zijlstra #define CREATE_TRACE_POINTS 548eddac3fSPeter Zijlstra #include <trace/events/lock.h> 558eddac3fSPeter Zijlstra 568eddac3fSPeter Zijlstra #ifdef CONFIG_PROVE_LOCKING 578eddac3fSPeter Zijlstra int prove_locking = 1; 588eddac3fSPeter Zijlstra module_param(prove_locking, int, 0644); 598eddac3fSPeter Zijlstra #else 608eddac3fSPeter Zijlstra #define prove_locking 0 618eddac3fSPeter Zijlstra #endif 628eddac3fSPeter Zijlstra 638eddac3fSPeter Zijlstra #ifdef CONFIG_LOCK_STAT 648eddac3fSPeter Zijlstra int lock_stat = 1; 658eddac3fSPeter Zijlstra module_param(lock_stat, int, 0644); 668eddac3fSPeter Zijlstra #else 678eddac3fSPeter Zijlstra #define lock_stat 0 688eddac3fSPeter Zijlstra #endif 698eddac3fSPeter Zijlstra 708eddac3fSPeter Zijlstra /* 718eddac3fSPeter Zijlstra * lockdep_lock: protects the lockdep graph, the hashes and the 728eddac3fSPeter Zijlstra * class/list/hash allocators. 738eddac3fSPeter Zijlstra * 748eddac3fSPeter Zijlstra * This is one of the rare exceptions where it's justified 758eddac3fSPeter Zijlstra * to use a raw spinlock - we really dont want the spinlock 768eddac3fSPeter Zijlstra * code to recurse back into the lockdep code... 778eddac3fSPeter Zijlstra */ 788eddac3fSPeter Zijlstra static arch_spinlock_t lockdep_lock = (arch_spinlock_t)__ARCH_SPIN_LOCK_UNLOCKED; 798eddac3fSPeter Zijlstra 808eddac3fSPeter Zijlstra static int graph_lock(void) 818eddac3fSPeter Zijlstra { 828eddac3fSPeter Zijlstra arch_spin_lock(&lockdep_lock); 838eddac3fSPeter Zijlstra /* 848eddac3fSPeter Zijlstra * Make sure that if another CPU detected a bug while 858eddac3fSPeter Zijlstra * walking the graph we dont change it (while the other 868eddac3fSPeter Zijlstra * CPU is busy printing out stuff with the graph lock 878eddac3fSPeter Zijlstra * dropped already) 888eddac3fSPeter Zijlstra */ 898eddac3fSPeter Zijlstra if (!debug_locks) { 908eddac3fSPeter Zijlstra arch_spin_unlock(&lockdep_lock); 918eddac3fSPeter Zijlstra return 0; 928eddac3fSPeter Zijlstra } 938eddac3fSPeter Zijlstra /* prevent any recursions within lockdep from causing deadlocks */ 948eddac3fSPeter Zijlstra current->lockdep_recursion++; 958eddac3fSPeter Zijlstra return 1; 968eddac3fSPeter Zijlstra } 978eddac3fSPeter Zijlstra 988eddac3fSPeter Zijlstra static inline int graph_unlock(void) 998eddac3fSPeter Zijlstra { 1008eddac3fSPeter Zijlstra if (debug_locks && !arch_spin_is_locked(&lockdep_lock)) { 1018eddac3fSPeter Zijlstra /* 1028eddac3fSPeter Zijlstra * The lockdep graph lock isn't locked while we expect it to 1038eddac3fSPeter Zijlstra * be, we're confused now, bye! 1048eddac3fSPeter Zijlstra */ 1058eddac3fSPeter Zijlstra return DEBUG_LOCKS_WARN_ON(1); 1068eddac3fSPeter Zijlstra } 1078eddac3fSPeter Zijlstra 1088eddac3fSPeter Zijlstra current->lockdep_recursion--; 1098eddac3fSPeter Zijlstra arch_spin_unlock(&lockdep_lock); 1108eddac3fSPeter Zijlstra return 0; 1118eddac3fSPeter Zijlstra } 1128eddac3fSPeter Zijlstra 1138eddac3fSPeter Zijlstra /* 1148eddac3fSPeter Zijlstra * Turn lock debugging off and return with 0 if it was off already, 1158eddac3fSPeter Zijlstra * and also release the graph lock: 1168eddac3fSPeter Zijlstra */ 1178eddac3fSPeter Zijlstra static inline int debug_locks_off_graph_unlock(void) 1188eddac3fSPeter Zijlstra { 1198eddac3fSPeter Zijlstra int ret = debug_locks_off(); 1208eddac3fSPeter Zijlstra 1218eddac3fSPeter Zijlstra arch_spin_unlock(&lockdep_lock); 1228eddac3fSPeter Zijlstra 1238eddac3fSPeter Zijlstra return ret; 1248eddac3fSPeter Zijlstra } 1258eddac3fSPeter Zijlstra 1268eddac3fSPeter Zijlstra unsigned long nr_list_entries; 1278eddac3fSPeter Zijlstra static struct lock_list list_entries[MAX_LOCKDEP_ENTRIES]; 1288eddac3fSPeter Zijlstra 1298eddac3fSPeter Zijlstra /* 1308eddac3fSPeter Zijlstra * All data structures here are protected by the global debug_lock. 1318eddac3fSPeter Zijlstra * 1328eddac3fSPeter Zijlstra * Mutex key structs only get allocated, once during bootup, and never 1338eddac3fSPeter Zijlstra * get freed - this significantly simplifies the debugging code. 1348eddac3fSPeter Zijlstra */ 1358eddac3fSPeter Zijlstra unsigned long nr_lock_classes; 1368eddac3fSPeter Zijlstra static struct lock_class lock_classes[MAX_LOCKDEP_KEYS]; 1378eddac3fSPeter Zijlstra 1388eddac3fSPeter Zijlstra static inline struct lock_class *hlock_class(struct held_lock *hlock) 1398eddac3fSPeter Zijlstra { 1408eddac3fSPeter Zijlstra if (!hlock->class_idx) { 1418eddac3fSPeter Zijlstra /* 1428eddac3fSPeter Zijlstra * Someone passed in garbage, we give up. 1438eddac3fSPeter Zijlstra */ 1448eddac3fSPeter Zijlstra DEBUG_LOCKS_WARN_ON(1); 1458eddac3fSPeter Zijlstra return NULL; 1468eddac3fSPeter Zijlstra } 1478eddac3fSPeter Zijlstra return lock_classes + hlock->class_idx - 1; 1488eddac3fSPeter Zijlstra } 1498eddac3fSPeter Zijlstra 1508eddac3fSPeter Zijlstra #ifdef CONFIG_LOCK_STAT 15125528213SPeter Zijlstra static DEFINE_PER_CPU(struct lock_class_stats[MAX_LOCKDEP_KEYS], cpu_lock_stats); 1528eddac3fSPeter Zijlstra 1538eddac3fSPeter Zijlstra static inline u64 lockstat_clock(void) 1548eddac3fSPeter Zijlstra { 1558eddac3fSPeter Zijlstra return local_clock(); 1568eddac3fSPeter Zijlstra } 1578eddac3fSPeter Zijlstra 1588eddac3fSPeter Zijlstra static int lock_point(unsigned long points[], unsigned long ip) 1598eddac3fSPeter Zijlstra { 1608eddac3fSPeter Zijlstra int i; 1618eddac3fSPeter Zijlstra 1628eddac3fSPeter Zijlstra for (i = 0; i < LOCKSTAT_POINTS; i++) { 1638eddac3fSPeter Zijlstra if (points[i] == 0) { 1648eddac3fSPeter Zijlstra points[i] = ip; 1658eddac3fSPeter Zijlstra break; 1668eddac3fSPeter Zijlstra } 1678eddac3fSPeter Zijlstra if (points[i] == ip) 1688eddac3fSPeter Zijlstra break; 1698eddac3fSPeter Zijlstra } 1708eddac3fSPeter Zijlstra 1718eddac3fSPeter Zijlstra return i; 1728eddac3fSPeter Zijlstra } 1738eddac3fSPeter Zijlstra 1748eddac3fSPeter Zijlstra static void lock_time_inc(struct lock_time *lt, u64 time) 1758eddac3fSPeter Zijlstra { 1768eddac3fSPeter Zijlstra if (time > lt->max) 1778eddac3fSPeter Zijlstra lt->max = time; 1788eddac3fSPeter Zijlstra 1798eddac3fSPeter Zijlstra if (time < lt->min || !lt->nr) 1808eddac3fSPeter Zijlstra lt->min = time; 1818eddac3fSPeter Zijlstra 1828eddac3fSPeter Zijlstra lt->total += time; 1838eddac3fSPeter Zijlstra lt->nr++; 1848eddac3fSPeter Zijlstra } 1858eddac3fSPeter Zijlstra 1868eddac3fSPeter Zijlstra static inline void lock_time_add(struct lock_time *src, struct lock_time *dst) 1878eddac3fSPeter Zijlstra { 1888eddac3fSPeter Zijlstra if (!src->nr) 1898eddac3fSPeter Zijlstra return; 1908eddac3fSPeter Zijlstra 1918eddac3fSPeter Zijlstra if (src->max > dst->max) 1928eddac3fSPeter Zijlstra dst->max = src->max; 1938eddac3fSPeter Zijlstra 1948eddac3fSPeter Zijlstra if (src->min < dst->min || !dst->nr) 1958eddac3fSPeter Zijlstra dst->min = src->min; 1968eddac3fSPeter Zijlstra 1978eddac3fSPeter Zijlstra dst->total += src->total; 1988eddac3fSPeter Zijlstra dst->nr += src->nr; 1998eddac3fSPeter Zijlstra } 2008eddac3fSPeter Zijlstra 2018eddac3fSPeter Zijlstra struct lock_class_stats lock_stats(struct lock_class *class) 2028eddac3fSPeter Zijlstra { 2038eddac3fSPeter Zijlstra struct lock_class_stats stats; 2048eddac3fSPeter Zijlstra int cpu, i; 2058eddac3fSPeter Zijlstra 2068eddac3fSPeter Zijlstra memset(&stats, 0, sizeof(struct lock_class_stats)); 2078eddac3fSPeter Zijlstra for_each_possible_cpu(cpu) { 2088eddac3fSPeter Zijlstra struct lock_class_stats *pcs = 2098eddac3fSPeter Zijlstra &per_cpu(cpu_lock_stats, cpu)[class - lock_classes]; 2108eddac3fSPeter Zijlstra 2118eddac3fSPeter Zijlstra for (i = 0; i < ARRAY_SIZE(stats.contention_point); i++) 2128eddac3fSPeter Zijlstra stats.contention_point[i] += pcs->contention_point[i]; 2138eddac3fSPeter Zijlstra 2148eddac3fSPeter Zijlstra for (i = 0; i < ARRAY_SIZE(stats.contending_point); i++) 2158eddac3fSPeter Zijlstra stats.contending_point[i] += pcs->contending_point[i]; 2168eddac3fSPeter Zijlstra 2178eddac3fSPeter Zijlstra lock_time_add(&pcs->read_waittime, &stats.read_waittime); 2188eddac3fSPeter Zijlstra lock_time_add(&pcs->write_waittime, &stats.write_waittime); 2198eddac3fSPeter Zijlstra 2208eddac3fSPeter Zijlstra lock_time_add(&pcs->read_holdtime, &stats.read_holdtime); 2218eddac3fSPeter Zijlstra lock_time_add(&pcs->write_holdtime, &stats.write_holdtime); 2228eddac3fSPeter Zijlstra 2238eddac3fSPeter Zijlstra for (i = 0; i < ARRAY_SIZE(stats.bounces); i++) 2248eddac3fSPeter Zijlstra stats.bounces[i] += pcs->bounces[i]; 2258eddac3fSPeter Zijlstra } 2268eddac3fSPeter Zijlstra 2278eddac3fSPeter Zijlstra return stats; 2288eddac3fSPeter Zijlstra } 2298eddac3fSPeter Zijlstra 2308eddac3fSPeter Zijlstra void clear_lock_stats(struct lock_class *class) 2318eddac3fSPeter Zijlstra { 2328eddac3fSPeter Zijlstra int cpu; 2338eddac3fSPeter Zijlstra 2348eddac3fSPeter Zijlstra for_each_possible_cpu(cpu) { 2358eddac3fSPeter Zijlstra struct lock_class_stats *cpu_stats = 2368eddac3fSPeter Zijlstra &per_cpu(cpu_lock_stats, cpu)[class - lock_classes]; 2378eddac3fSPeter Zijlstra 2388eddac3fSPeter Zijlstra memset(cpu_stats, 0, sizeof(struct lock_class_stats)); 2398eddac3fSPeter Zijlstra } 2408eddac3fSPeter Zijlstra memset(class->contention_point, 0, sizeof(class->contention_point)); 2418eddac3fSPeter Zijlstra memset(class->contending_point, 0, sizeof(class->contending_point)); 2428eddac3fSPeter Zijlstra } 2438eddac3fSPeter Zijlstra 2448eddac3fSPeter Zijlstra static struct lock_class_stats *get_lock_stats(struct lock_class *class) 2458eddac3fSPeter Zijlstra { 2468eddac3fSPeter Zijlstra return &get_cpu_var(cpu_lock_stats)[class - lock_classes]; 2478eddac3fSPeter Zijlstra } 2488eddac3fSPeter Zijlstra 2498eddac3fSPeter Zijlstra static void put_lock_stats(struct lock_class_stats *stats) 2508eddac3fSPeter Zijlstra { 2518eddac3fSPeter Zijlstra put_cpu_var(cpu_lock_stats); 2528eddac3fSPeter Zijlstra } 2538eddac3fSPeter Zijlstra 2548eddac3fSPeter Zijlstra static void lock_release_holdtime(struct held_lock *hlock) 2558eddac3fSPeter Zijlstra { 2568eddac3fSPeter Zijlstra struct lock_class_stats *stats; 2578eddac3fSPeter Zijlstra u64 holdtime; 2588eddac3fSPeter Zijlstra 2598eddac3fSPeter Zijlstra if (!lock_stat) 2608eddac3fSPeter Zijlstra return; 2618eddac3fSPeter Zijlstra 2628eddac3fSPeter Zijlstra holdtime = lockstat_clock() - hlock->holdtime_stamp; 2638eddac3fSPeter Zijlstra 2648eddac3fSPeter Zijlstra stats = get_lock_stats(hlock_class(hlock)); 2658eddac3fSPeter Zijlstra if (hlock->read) 2668eddac3fSPeter Zijlstra lock_time_inc(&stats->read_holdtime, holdtime); 2678eddac3fSPeter Zijlstra else 2688eddac3fSPeter Zijlstra lock_time_inc(&stats->write_holdtime, holdtime); 2698eddac3fSPeter Zijlstra put_lock_stats(stats); 2708eddac3fSPeter Zijlstra } 2718eddac3fSPeter Zijlstra #else 2728eddac3fSPeter Zijlstra static inline void lock_release_holdtime(struct held_lock *hlock) 2738eddac3fSPeter Zijlstra { 2748eddac3fSPeter Zijlstra } 2758eddac3fSPeter Zijlstra #endif 2768eddac3fSPeter Zijlstra 2778eddac3fSPeter Zijlstra /* 2788eddac3fSPeter Zijlstra * We keep a global list of all lock classes. The list only grows, 2798eddac3fSPeter Zijlstra * never shrinks. The list is only accessed with the lockdep 2808eddac3fSPeter Zijlstra * spinlock lock held. 2818eddac3fSPeter Zijlstra */ 2828eddac3fSPeter Zijlstra LIST_HEAD(all_lock_classes); 2838eddac3fSPeter Zijlstra 2848eddac3fSPeter Zijlstra /* 2858eddac3fSPeter Zijlstra * The lockdep classes are in a hash-table as well, for fast lookup: 2868eddac3fSPeter Zijlstra */ 2878eddac3fSPeter Zijlstra #define CLASSHASH_BITS (MAX_LOCKDEP_KEYS_BITS - 1) 2888eddac3fSPeter Zijlstra #define CLASSHASH_SIZE (1UL << CLASSHASH_BITS) 2898eddac3fSPeter Zijlstra #define __classhashfn(key) hash_long((unsigned long)key, CLASSHASH_BITS) 2908eddac3fSPeter Zijlstra #define classhashentry(key) (classhash_table + __classhashfn((key))) 2918eddac3fSPeter Zijlstra 292a63f38ccSAndrew Morton static struct hlist_head classhash_table[CLASSHASH_SIZE]; 2938eddac3fSPeter Zijlstra 2948eddac3fSPeter Zijlstra /* 2958eddac3fSPeter Zijlstra * We put the lock dependency chains into a hash-table as well, to cache 2968eddac3fSPeter Zijlstra * their existence: 2978eddac3fSPeter Zijlstra */ 2988eddac3fSPeter Zijlstra #define CHAINHASH_BITS (MAX_LOCKDEP_CHAINS_BITS-1) 2998eddac3fSPeter Zijlstra #define CHAINHASH_SIZE (1UL << CHAINHASH_BITS) 3008eddac3fSPeter Zijlstra #define __chainhashfn(chain) hash_long(chain, CHAINHASH_BITS) 3018eddac3fSPeter Zijlstra #define chainhashentry(chain) (chainhash_table + __chainhashfn((chain))) 3028eddac3fSPeter Zijlstra 303a63f38ccSAndrew Morton static struct hlist_head chainhash_table[CHAINHASH_SIZE]; 3048eddac3fSPeter Zijlstra 3058eddac3fSPeter Zijlstra /* 3068eddac3fSPeter Zijlstra * The hash key of the lock dependency chains is a hash itself too: 3078eddac3fSPeter Zijlstra * it's a hash of all locks taken up to that lock, including that lock. 3088eddac3fSPeter Zijlstra * It's a 64-bit hash, because it's important for the keys to be 3098eddac3fSPeter Zijlstra * unique. 3108eddac3fSPeter Zijlstra */ 3118eddac3fSPeter Zijlstra #define iterate_chain_key(key1, key2) \ 3128eddac3fSPeter Zijlstra (((key1) << MAX_LOCKDEP_KEYS_BITS) ^ \ 3138eddac3fSPeter Zijlstra ((key1) >> (64-MAX_LOCKDEP_KEYS_BITS)) ^ \ 3148eddac3fSPeter Zijlstra (key2)) 3158eddac3fSPeter Zijlstra 3168eddac3fSPeter Zijlstra void lockdep_off(void) 3178eddac3fSPeter Zijlstra { 3188eddac3fSPeter Zijlstra current->lockdep_recursion++; 3198eddac3fSPeter Zijlstra } 3208eddac3fSPeter Zijlstra EXPORT_SYMBOL(lockdep_off); 3218eddac3fSPeter Zijlstra 3228eddac3fSPeter Zijlstra void lockdep_on(void) 3238eddac3fSPeter Zijlstra { 3248eddac3fSPeter Zijlstra current->lockdep_recursion--; 3258eddac3fSPeter Zijlstra } 3268eddac3fSPeter Zijlstra EXPORT_SYMBOL(lockdep_on); 3278eddac3fSPeter Zijlstra 3288eddac3fSPeter Zijlstra /* 3298eddac3fSPeter Zijlstra * Debugging switches: 3308eddac3fSPeter Zijlstra */ 3318eddac3fSPeter Zijlstra 3328eddac3fSPeter Zijlstra #define VERBOSE 0 3338eddac3fSPeter Zijlstra #define VERY_VERBOSE 0 3348eddac3fSPeter Zijlstra 3358eddac3fSPeter Zijlstra #if VERBOSE 3368eddac3fSPeter Zijlstra # define HARDIRQ_VERBOSE 1 3378eddac3fSPeter Zijlstra # define SOFTIRQ_VERBOSE 1 3388eddac3fSPeter Zijlstra # define RECLAIM_VERBOSE 1 3398eddac3fSPeter Zijlstra #else 3408eddac3fSPeter Zijlstra # define HARDIRQ_VERBOSE 0 3418eddac3fSPeter Zijlstra # define SOFTIRQ_VERBOSE 0 3428eddac3fSPeter Zijlstra # define RECLAIM_VERBOSE 0 3438eddac3fSPeter Zijlstra #endif 3448eddac3fSPeter Zijlstra 3458eddac3fSPeter Zijlstra #if VERBOSE || HARDIRQ_VERBOSE || SOFTIRQ_VERBOSE || RECLAIM_VERBOSE 3468eddac3fSPeter Zijlstra /* 3478eddac3fSPeter Zijlstra * Quick filtering for interesting events: 3488eddac3fSPeter Zijlstra */ 3498eddac3fSPeter Zijlstra static int class_filter(struct lock_class *class) 3508eddac3fSPeter Zijlstra { 3518eddac3fSPeter Zijlstra #if 0 3528eddac3fSPeter Zijlstra /* Example */ 3538eddac3fSPeter Zijlstra if (class->name_version == 1 && 3548eddac3fSPeter Zijlstra !strcmp(class->name, "lockname")) 3558eddac3fSPeter Zijlstra return 1; 3568eddac3fSPeter Zijlstra if (class->name_version == 1 && 3578eddac3fSPeter Zijlstra !strcmp(class->name, "&struct->lockfield")) 3588eddac3fSPeter Zijlstra return 1; 3598eddac3fSPeter Zijlstra #endif 3608eddac3fSPeter Zijlstra /* Filter everything else. 1 would be to allow everything else */ 3618eddac3fSPeter Zijlstra return 0; 3628eddac3fSPeter Zijlstra } 3638eddac3fSPeter Zijlstra #endif 3648eddac3fSPeter Zijlstra 3658eddac3fSPeter Zijlstra static int verbose(struct lock_class *class) 3668eddac3fSPeter Zijlstra { 3678eddac3fSPeter Zijlstra #if VERBOSE 3688eddac3fSPeter Zijlstra return class_filter(class); 3698eddac3fSPeter Zijlstra #endif 3708eddac3fSPeter Zijlstra return 0; 3718eddac3fSPeter Zijlstra } 3728eddac3fSPeter Zijlstra 3738eddac3fSPeter Zijlstra /* 3748eddac3fSPeter Zijlstra * Stack-trace: tightly packed array of stack backtrace 3758eddac3fSPeter Zijlstra * addresses. Protected by the graph_lock. 3768eddac3fSPeter Zijlstra */ 3778eddac3fSPeter Zijlstra unsigned long nr_stack_trace_entries; 3788eddac3fSPeter Zijlstra static unsigned long stack_trace[MAX_STACK_TRACE_ENTRIES]; 3798eddac3fSPeter Zijlstra 3808eddac3fSPeter Zijlstra static void print_lockdep_off(const char *bug_msg) 3818eddac3fSPeter Zijlstra { 3828eddac3fSPeter Zijlstra printk(KERN_DEBUG "%s\n", bug_msg); 3838eddac3fSPeter Zijlstra printk(KERN_DEBUG "turning off the locking correctness validator.\n"); 384acf59377SAndreas Gruenbacher #ifdef CONFIG_LOCK_STAT 3858eddac3fSPeter Zijlstra printk(KERN_DEBUG "Please attach the output of /proc/lock_stat to the bug report\n"); 386acf59377SAndreas Gruenbacher #endif 3878eddac3fSPeter Zijlstra } 3888eddac3fSPeter Zijlstra 3898eddac3fSPeter Zijlstra static int save_trace(struct stack_trace *trace) 3908eddac3fSPeter Zijlstra { 3918eddac3fSPeter Zijlstra trace->nr_entries = 0; 3928eddac3fSPeter Zijlstra trace->max_entries = MAX_STACK_TRACE_ENTRIES - nr_stack_trace_entries; 3938eddac3fSPeter Zijlstra trace->entries = stack_trace + nr_stack_trace_entries; 3948eddac3fSPeter Zijlstra 3958eddac3fSPeter Zijlstra trace->skip = 3; 3968eddac3fSPeter Zijlstra 3978eddac3fSPeter Zijlstra save_stack_trace(trace); 3988eddac3fSPeter Zijlstra 3998eddac3fSPeter Zijlstra /* 4008eddac3fSPeter Zijlstra * Some daft arches put -1 at the end to indicate its a full trace. 4018eddac3fSPeter Zijlstra * 4028eddac3fSPeter Zijlstra * <rant> this is buggy anyway, since it takes a whole extra entry so a 4038eddac3fSPeter Zijlstra * complete trace that maxes out the entries provided will be reported 4048eddac3fSPeter Zijlstra * as incomplete, friggin useless </rant> 4058eddac3fSPeter Zijlstra */ 4068eddac3fSPeter Zijlstra if (trace->nr_entries != 0 && 4078eddac3fSPeter Zijlstra trace->entries[trace->nr_entries-1] == ULONG_MAX) 4088eddac3fSPeter Zijlstra trace->nr_entries--; 4098eddac3fSPeter Zijlstra 4108eddac3fSPeter Zijlstra trace->max_entries = trace->nr_entries; 4118eddac3fSPeter Zijlstra 4128eddac3fSPeter Zijlstra nr_stack_trace_entries += trace->nr_entries; 4138eddac3fSPeter Zijlstra 4148eddac3fSPeter Zijlstra if (nr_stack_trace_entries >= MAX_STACK_TRACE_ENTRIES-1) { 4158eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock()) 4168eddac3fSPeter Zijlstra return 0; 4178eddac3fSPeter Zijlstra 4188eddac3fSPeter Zijlstra print_lockdep_off("BUG: MAX_STACK_TRACE_ENTRIES too low!"); 4198eddac3fSPeter Zijlstra dump_stack(); 4208eddac3fSPeter Zijlstra 4218eddac3fSPeter Zijlstra return 0; 4228eddac3fSPeter Zijlstra } 4238eddac3fSPeter Zijlstra 4248eddac3fSPeter Zijlstra return 1; 4258eddac3fSPeter Zijlstra } 4268eddac3fSPeter Zijlstra 4278eddac3fSPeter Zijlstra unsigned int nr_hardirq_chains; 4288eddac3fSPeter Zijlstra unsigned int nr_softirq_chains; 4298eddac3fSPeter Zijlstra unsigned int nr_process_chains; 4308eddac3fSPeter Zijlstra unsigned int max_lockdep_depth; 4318eddac3fSPeter Zijlstra 4328eddac3fSPeter Zijlstra #ifdef CONFIG_DEBUG_LOCKDEP 4338eddac3fSPeter Zijlstra /* 4348eddac3fSPeter Zijlstra * Various lockdep statistics: 4358eddac3fSPeter Zijlstra */ 4368eddac3fSPeter Zijlstra DEFINE_PER_CPU(struct lockdep_stats, lockdep_stats); 4378eddac3fSPeter Zijlstra #endif 4388eddac3fSPeter Zijlstra 4398eddac3fSPeter Zijlstra /* 4408eddac3fSPeter Zijlstra * Locking printouts: 4418eddac3fSPeter Zijlstra */ 4428eddac3fSPeter Zijlstra 4438eddac3fSPeter Zijlstra #define __USAGE(__STATE) \ 4448eddac3fSPeter Zijlstra [LOCK_USED_IN_##__STATE] = "IN-"__stringify(__STATE)"-W", \ 4458eddac3fSPeter Zijlstra [LOCK_ENABLED_##__STATE] = __stringify(__STATE)"-ON-W", \ 4468eddac3fSPeter Zijlstra [LOCK_USED_IN_##__STATE##_READ] = "IN-"__stringify(__STATE)"-R",\ 4478eddac3fSPeter Zijlstra [LOCK_ENABLED_##__STATE##_READ] = __stringify(__STATE)"-ON-R", 4488eddac3fSPeter Zijlstra 4498eddac3fSPeter Zijlstra static const char *usage_str[] = 4508eddac3fSPeter Zijlstra { 4518eddac3fSPeter Zijlstra #define LOCKDEP_STATE(__STATE) __USAGE(__STATE) 4528eddac3fSPeter Zijlstra #include "lockdep_states.h" 4538eddac3fSPeter Zijlstra #undef LOCKDEP_STATE 4548eddac3fSPeter Zijlstra [LOCK_USED] = "INITIAL USE", 4558eddac3fSPeter Zijlstra }; 4568eddac3fSPeter Zijlstra 4578eddac3fSPeter Zijlstra const char * __get_key_name(struct lockdep_subclass_key *key, char *str) 4588eddac3fSPeter Zijlstra { 4598eddac3fSPeter Zijlstra return kallsyms_lookup((unsigned long)key, NULL, NULL, NULL, str); 4608eddac3fSPeter Zijlstra } 4618eddac3fSPeter Zijlstra 4628eddac3fSPeter Zijlstra static inline unsigned long lock_flag(enum lock_usage_bit bit) 4638eddac3fSPeter Zijlstra { 4648eddac3fSPeter Zijlstra return 1UL << bit; 4658eddac3fSPeter Zijlstra } 4668eddac3fSPeter Zijlstra 4678eddac3fSPeter Zijlstra static char get_usage_char(struct lock_class *class, enum lock_usage_bit bit) 4688eddac3fSPeter Zijlstra { 4698eddac3fSPeter Zijlstra char c = '.'; 4708eddac3fSPeter Zijlstra 4718eddac3fSPeter Zijlstra if (class->usage_mask & lock_flag(bit + 2)) 4728eddac3fSPeter Zijlstra c = '+'; 4738eddac3fSPeter Zijlstra if (class->usage_mask & lock_flag(bit)) { 4748eddac3fSPeter Zijlstra c = '-'; 4758eddac3fSPeter Zijlstra if (class->usage_mask & lock_flag(bit + 2)) 4768eddac3fSPeter Zijlstra c = '?'; 4778eddac3fSPeter Zijlstra } 4788eddac3fSPeter Zijlstra 4798eddac3fSPeter Zijlstra return c; 4808eddac3fSPeter Zijlstra } 4818eddac3fSPeter Zijlstra 4828eddac3fSPeter Zijlstra void get_usage_chars(struct lock_class *class, char usage[LOCK_USAGE_CHARS]) 4838eddac3fSPeter Zijlstra { 4848eddac3fSPeter Zijlstra int i = 0; 4858eddac3fSPeter Zijlstra 4868eddac3fSPeter Zijlstra #define LOCKDEP_STATE(__STATE) \ 4878eddac3fSPeter Zijlstra usage[i++] = get_usage_char(class, LOCK_USED_IN_##__STATE); \ 4888eddac3fSPeter Zijlstra usage[i++] = get_usage_char(class, LOCK_USED_IN_##__STATE##_READ); 4898eddac3fSPeter Zijlstra #include "lockdep_states.h" 4908eddac3fSPeter Zijlstra #undef LOCKDEP_STATE 4918eddac3fSPeter Zijlstra 4928eddac3fSPeter Zijlstra usage[i] = '\0'; 4938eddac3fSPeter Zijlstra } 4948eddac3fSPeter Zijlstra 4958eddac3fSPeter Zijlstra static void __print_lock_name(struct lock_class *class) 4968eddac3fSPeter Zijlstra { 4978eddac3fSPeter Zijlstra char str[KSYM_NAME_LEN]; 4988eddac3fSPeter Zijlstra const char *name; 4998eddac3fSPeter Zijlstra 5008eddac3fSPeter Zijlstra name = class->name; 5018eddac3fSPeter Zijlstra if (!name) { 5028eddac3fSPeter Zijlstra name = __get_key_name(class->key, str); 5038eddac3fSPeter Zijlstra printk("%s", name); 5048eddac3fSPeter Zijlstra } else { 5058eddac3fSPeter Zijlstra printk("%s", name); 5068eddac3fSPeter Zijlstra if (class->name_version > 1) 5078eddac3fSPeter Zijlstra printk("#%d", class->name_version); 5088eddac3fSPeter Zijlstra if (class->subclass) 5098eddac3fSPeter Zijlstra printk("/%d", class->subclass); 5108eddac3fSPeter Zijlstra } 5118eddac3fSPeter Zijlstra } 5128eddac3fSPeter Zijlstra 5138eddac3fSPeter Zijlstra static void print_lock_name(struct lock_class *class) 5148eddac3fSPeter Zijlstra { 5158eddac3fSPeter Zijlstra char usage[LOCK_USAGE_CHARS]; 5168eddac3fSPeter Zijlstra 5178eddac3fSPeter Zijlstra get_usage_chars(class, usage); 5188eddac3fSPeter Zijlstra 5198eddac3fSPeter Zijlstra printk(" ("); 5208eddac3fSPeter Zijlstra __print_lock_name(class); 5218eddac3fSPeter Zijlstra printk("){%s}", usage); 5228eddac3fSPeter Zijlstra } 5238eddac3fSPeter Zijlstra 5248eddac3fSPeter Zijlstra static void print_lockdep_cache(struct lockdep_map *lock) 5258eddac3fSPeter Zijlstra { 5268eddac3fSPeter Zijlstra const char *name; 5278eddac3fSPeter Zijlstra char str[KSYM_NAME_LEN]; 5288eddac3fSPeter Zijlstra 5298eddac3fSPeter Zijlstra name = lock->name; 5308eddac3fSPeter Zijlstra if (!name) 5318eddac3fSPeter Zijlstra name = __get_key_name(lock->key->subkeys, str); 5328eddac3fSPeter Zijlstra 5338eddac3fSPeter Zijlstra printk("%s", name); 5348eddac3fSPeter Zijlstra } 5358eddac3fSPeter Zijlstra 5368eddac3fSPeter Zijlstra static void print_lock(struct held_lock *hlock) 5378eddac3fSPeter Zijlstra { 538d7bc3197SPeter Zijlstra /* 539d7bc3197SPeter Zijlstra * We can be called locklessly through debug_show_all_locks() so be 540d7bc3197SPeter Zijlstra * extra careful, the hlock might have been released and cleared. 541d7bc3197SPeter Zijlstra */ 542d7bc3197SPeter Zijlstra unsigned int class_idx = hlock->class_idx; 543d7bc3197SPeter Zijlstra 544d7bc3197SPeter Zijlstra /* Don't re-read hlock->class_idx, can't use READ_ONCE() on bitfields: */ 545d7bc3197SPeter Zijlstra barrier(); 546d7bc3197SPeter Zijlstra 547d7bc3197SPeter Zijlstra if (!class_idx || (class_idx - 1) >= MAX_LOCKDEP_KEYS) { 548d7bc3197SPeter Zijlstra printk("<RELEASED>\n"); 549d7bc3197SPeter Zijlstra return; 550d7bc3197SPeter Zijlstra } 551d7bc3197SPeter Zijlstra 552d7bc3197SPeter Zijlstra print_lock_name(lock_classes + class_idx - 1); 5538eddac3fSPeter Zijlstra printk(", at: "); 5548eddac3fSPeter Zijlstra print_ip_sym(hlock->acquire_ip); 5558eddac3fSPeter Zijlstra } 5568eddac3fSPeter Zijlstra 5578eddac3fSPeter Zijlstra static void lockdep_print_held_locks(struct task_struct *curr) 5588eddac3fSPeter Zijlstra { 5598eddac3fSPeter Zijlstra int i, depth = curr->lockdep_depth; 5608eddac3fSPeter Zijlstra 5618eddac3fSPeter Zijlstra if (!depth) { 5628eddac3fSPeter Zijlstra printk("no locks held by %s/%d.\n", curr->comm, task_pid_nr(curr)); 5638eddac3fSPeter Zijlstra return; 5648eddac3fSPeter Zijlstra } 5658eddac3fSPeter Zijlstra printk("%d lock%s held by %s/%d:\n", 5668eddac3fSPeter Zijlstra depth, depth > 1 ? "s" : "", curr->comm, task_pid_nr(curr)); 5678eddac3fSPeter Zijlstra 5688eddac3fSPeter Zijlstra for (i = 0; i < depth; i++) { 5698eddac3fSPeter Zijlstra printk(" #%d: ", i); 5708eddac3fSPeter Zijlstra print_lock(curr->held_locks + i); 5718eddac3fSPeter Zijlstra } 5728eddac3fSPeter Zijlstra } 5738eddac3fSPeter Zijlstra 5748eddac3fSPeter Zijlstra static void print_kernel_ident(void) 5758eddac3fSPeter Zijlstra { 5768eddac3fSPeter Zijlstra printk("%s %.*s %s\n", init_utsname()->release, 5778eddac3fSPeter Zijlstra (int)strcspn(init_utsname()->version, " "), 5788eddac3fSPeter Zijlstra init_utsname()->version, 5798eddac3fSPeter Zijlstra print_tainted()); 5808eddac3fSPeter Zijlstra } 5818eddac3fSPeter Zijlstra 5828eddac3fSPeter Zijlstra static int very_verbose(struct lock_class *class) 5838eddac3fSPeter Zijlstra { 5848eddac3fSPeter Zijlstra #if VERY_VERBOSE 5858eddac3fSPeter Zijlstra return class_filter(class); 5868eddac3fSPeter Zijlstra #endif 5878eddac3fSPeter Zijlstra return 0; 5888eddac3fSPeter Zijlstra } 5898eddac3fSPeter Zijlstra 5908eddac3fSPeter Zijlstra /* 5918eddac3fSPeter Zijlstra * Is this the address of a static object: 5928eddac3fSPeter Zijlstra */ 5938dce7a9aSSasha Levin #ifdef __KERNEL__ 5948eddac3fSPeter Zijlstra static int static_obj(void *obj) 5958eddac3fSPeter Zijlstra { 5968eddac3fSPeter Zijlstra unsigned long start = (unsigned long) &_stext, 5978eddac3fSPeter Zijlstra end = (unsigned long) &_end, 5988eddac3fSPeter Zijlstra addr = (unsigned long) obj; 5998eddac3fSPeter Zijlstra 6008eddac3fSPeter Zijlstra /* 6018eddac3fSPeter Zijlstra * static variable? 6028eddac3fSPeter Zijlstra */ 6038eddac3fSPeter Zijlstra if ((addr >= start) && (addr < end)) 6048eddac3fSPeter Zijlstra return 1; 6058eddac3fSPeter Zijlstra 6068eddac3fSPeter Zijlstra if (arch_is_kernel_data(addr)) 6078eddac3fSPeter Zijlstra return 1; 6088eddac3fSPeter Zijlstra 6098eddac3fSPeter Zijlstra /* 6108eddac3fSPeter Zijlstra * in-kernel percpu var? 6118eddac3fSPeter Zijlstra */ 6128eddac3fSPeter Zijlstra if (is_kernel_percpu_address(addr)) 6138eddac3fSPeter Zijlstra return 1; 6148eddac3fSPeter Zijlstra 6158eddac3fSPeter Zijlstra /* 6168eddac3fSPeter Zijlstra * module static or percpu var? 6178eddac3fSPeter Zijlstra */ 6188eddac3fSPeter Zijlstra return is_module_address(addr) || is_module_percpu_address(addr); 6198eddac3fSPeter Zijlstra } 6208dce7a9aSSasha Levin #endif 6218eddac3fSPeter Zijlstra 6228eddac3fSPeter Zijlstra /* 6238eddac3fSPeter Zijlstra * To make lock name printouts unique, we calculate a unique 6248eddac3fSPeter Zijlstra * class->name_version generation counter: 6258eddac3fSPeter Zijlstra */ 6268eddac3fSPeter Zijlstra static int count_matching_names(struct lock_class *new_class) 6278eddac3fSPeter Zijlstra { 6288eddac3fSPeter Zijlstra struct lock_class *class; 6298eddac3fSPeter Zijlstra int count = 0; 6308eddac3fSPeter Zijlstra 6318eddac3fSPeter Zijlstra if (!new_class->name) 6328eddac3fSPeter Zijlstra return 0; 6338eddac3fSPeter Zijlstra 63435a9393cSPeter Zijlstra list_for_each_entry_rcu(class, &all_lock_classes, lock_entry) { 6358eddac3fSPeter Zijlstra if (new_class->key - new_class->subclass == class->key) 6368eddac3fSPeter Zijlstra return class->name_version; 6378eddac3fSPeter Zijlstra if (class->name && !strcmp(class->name, new_class->name)) 6388eddac3fSPeter Zijlstra count = max(count, class->name_version); 6398eddac3fSPeter Zijlstra } 6408eddac3fSPeter Zijlstra 6418eddac3fSPeter Zijlstra return count + 1; 6428eddac3fSPeter Zijlstra } 6438eddac3fSPeter Zijlstra 6448eddac3fSPeter Zijlstra /* 6458eddac3fSPeter Zijlstra * Register a lock's class in the hash-table, if the class is not present 6468eddac3fSPeter Zijlstra * yet. Otherwise we look it up. We cache the result in the lock object 6478eddac3fSPeter Zijlstra * itself, so actual lookup of the hash should be once per lock object. 6488eddac3fSPeter Zijlstra */ 6498eddac3fSPeter Zijlstra static inline struct lock_class * 6508eddac3fSPeter Zijlstra look_up_lock_class(struct lockdep_map *lock, unsigned int subclass) 6518eddac3fSPeter Zijlstra { 6528eddac3fSPeter Zijlstra struct lockdep_subclass_key *key; 653a63f38ccSAndrew Morton struct hlist_head *hash_head; 6548eddac3fSPeter Zijlstra struct lock_class *class; 6558eddac3fSPeter Zijlstra 6568eddac3fSPeter Zijlstra if (unlikely(subclass >= MAX_LOCKDEP_SUBCLASSES)) { 6578eddac3fSPeter Zijlstra debug_locks_off(); 6588eddac3fSPeter Zijlstra printk(KERN_ERR 6598eddac3fSPeter Zijlstra "BUG: looking up invalid subclass: %u\n", subclass); 6608eddac3fSPeter Zijlstra printk(KERN_ERR 6618eddac3fSPeter Zijlstra "turning off the locking correctness validator.\n"); 6628eddac3fSPeter Zijlstra dump_stack(); 6638eddac3fSPeter Zijlstra return NULL; 6648eddac3fSPeter Zijlstra } 6658eddac3fSPeter Zijlstra 6668eddac3fSPeter Zijlstra /* 6678eddac3fSPeter Zijlstra * Static locks do not have their class-keys yet - for them the key 6688eddac3fSPeter Zijlstra * is the lock object itself: 6698eddac3fSPeter Zijlstra */ 6708eddac3fSPeter Zijlstra if (unlikely(!lock->key)) 6718eddac3fSPeter Zijlstra lock->key = (void *)lock; 6728eddac3fSPeter Zijlstra 6738eddac3fSPeter Zijlstra /* 6748eddac3fSPeter Zijlstra * NOTE: the class-key must be unique. For dynamic locks, a static 6758eddac3fSPeter Zijlstra * lock_class_key variable is passed in through the mutex_init() 6768eddac3fSPeter Zijlstra * (or spin_lock_init()) call - which acts as the key. For static 6778eddac3fSPeter Zijlstra * locks we use the lock object itself as the key. 6788eddac3fSPeter Zijlstra */ 6798eddac3fSPeter Zijlstra BUILD_BUG_ON(sizeof(struct lock_class_key) > 6808eddac3fSPeter Zijlstra sizeof(struct lockdep_map)); 6818eddac3fSPeter Zijlstra 6828eddac3fSPeter Zijlstra key = lock->key->subkeys + subclass; 6838eddac3fSPeter Zijlstra 6848eddac3fSPeter Zijlstra hash_head = classhashentry(key); 6858eddac3fSPeter Zijlstra 6868eddac3fSPeter Zijlstra /* 68735a9393cSPeter Zijlstra * We do an RCU walk of the hash, see lockdep_free_key_range(). 6888eddac3fSPeter Zijlstra */ 68935a9393cSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!irqs_disabled())) 69035a9393cSPeter Zijlstra return NULL; 69135a9393cSPeter Zijlstra 692a63f38ccSAndrew Morton hlist_for_each_entry_rcu(class, hash_head, hash_entry) { 6938eddac3fSPeter Zijlstra if (class->key == key) { 6948eddac3fSPeter Zijlstra /* 6958eddac3fSPeter Zijlstra * Huh! same key, different name? Did someone trample 6968eddac3fSPeter Zijlstra * on some memory? We're most confused. 6978eddac3fSPeter Zijlstra */ 6988eddac3fSPeter Zijlstra WARN_ON_ONCE(class->name != lock->name); 6998eddac3fSPeter Zijlstra return class; 7008eddac3fSPeter Zijlstra } 7018eddac3fSPeter Zijlstra } 7028eddac3fSPeter Zijlstra 7038eddac3fSPeter Zijlstra return NULL; 7048eddac3fSPeter Zijlstra } 7058eddac3fSPeter Zijlstra 7068eddac3fSPeter Zijlstra /* 7078eddac3fSPeter Zijlstra * Register a lock's class in the hash-table, if the class is not present 7088eddac3fSPeter Zijlstra * yet. Otherwise we look it up. We cache the result in the lock object 7098eddac3fSPeter Zijlstra * itself, so actual lookup of the hash should be once per lock object. 7108eddac3fSPeter Zijlstra */ 711*c003ed92SDenys Vlasenko static struct lock_class * 7128eddac3fSPeter Zijlstra register_lock_class(struct lockdep_map *lock, unsigned int subclass, int force) 7138eddac3fSPeter Zijlstra { 7148eddac3fSPeter Zijlstra struct lockdep_subclass_key *key; 715a63f38ccSAndrew Morton struct hlist_head *hash_head; 7168eddac3fSPeter Zijlstra struct lock_class *class; 71735a9393cSPeter Zijlstra 71835a9393cSPeter Zijlstra DEBUG_LOCKS_WARN_ON(!irqs_disabled()); 7198eddac3fSPeter Zijlstra 7208eddac3fSPeter Zijlstra class = look_up_lock_class(lock, subclass); 7218eddac3fSPeter Zijlstra if (likely(class)) 7228eddac3fSPeter Zijlstra goto out_set_class_cache; 7238eddac3fSPeter Zijlstra 7248eddac3fSPeter Zijlstra /* 7258eddac3fSPeter Zijlstra * Debug-check: all keys must be persistent! 7268eddac3fSPeter Zijlstra */ 7278eddac3fSPeter Zijlstra if (!static_obj(lock->key)) { 7288eddac3fSPeter Zijlstra debug_locks_off(); 7298eddac3fSPeter Zijlstra printk("INFO: trying to register non-static key.\n"); 7308eddac3fSPeter Zijlstra printk("the code is fine but needs lockdep annotation.\n"); 7318eddac3fSPeter Zijlstra printk("turning off the locking correctness validator.\n"); 7328eddac3fSPeter Zijlstra dump_stack(); 7338eddac3fSPeter Zijlstra 7348eddac3fSPeter Zijlstra return NULL; 7358eddac3fSPeter Zijlstra } 7368eddac3fSPeter Zijlstra 7378eddac3fSPeter Zijlstra key = lock->key->subkeys + subclass; 7388eddac3fSPeter Zijlstra hash_head = classhashentry(key); 7398eddac3fSPeter Zijlstra 7408eddac3fSPeter Zijlstra if (!graph_lock()) { 7418eddac3fSPeter Zijlstra return NULL; 7428eddac3fSPeter Zijlstra } 7438eddac3fSPeter Zijlstra /* 7448eddac3fSPeter Zijlstra * We have to do the hash-walk again, to avoid races 7458eddac3fSPeter Zijlstra * with another CPU: 7468eddac3fSPeter Zijlstra */ 747a63f38ccSAndrew Morton hlist_for_each_entry_rcu(class, hash_head, hash_entry) { 7488eddac3fSPeter Zijlstra if (class->key == key) 7498eddac3fSPeter Zijlstra goto out_unlock_set; 75035a9393cSPeter Zijlstra } 75135a9393cSPeter Zijlstra 7528eddac3fSPeter Zijlstra /* 7538eddac3fSPeter Zijlstra * Allocate a new key from the static array, and add it to 7548eddac3fSPeter Zijlstra * the hash: 7558eddac3fSPeter Zijlstra */ 7568eddac3fSPeter Zijlstra if (nr_lock_classes >= MAX_LOCKDEP_KEYS) { 7578eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock()) { 7588eddac3fSPeter Zijlstra return NULL; 7598eddac3fSPeter Zijlstra } 7608eddac3fSPeter Zijlstra 7618eddac3fSPeter Zijlstra print_lockdep_off("BUG: MAX_LOCKDEP_KEYS too low!"); 7628eddac3fSPeter Zijlstra dump_stack(); 7638eddac3fSPeter Zijlstra return NULL; 7648eddac3fSPeter Zijlstra } 7658eddac3fSPeter Zijlstra class = lock_classes + nr_lock_classes++; 7668eddac3fSPeter Zijlstra debug_atomic_inc(nr_unused_locks); 7678eddac3fSPeter Zijlstra class->key = key; 7688eddac3fSPeter Zijlstra class->name = lock->name; 7698eddac3fSPeter Zijlstra class->subclass = subclass; 7708eddac3fSPeter Zijlstra INIT_LIST_HEAD(&class->lock_entry); 7718eddac3fSPeter Zijlstra INIT_LIST_HEAD(&class->locks_before); 7728eddac3fSPeter Zijlstra INIT_LIST_HEAD(&class->locks_after); 7738eddac3fSPeter Zijlstra class->name_version = count_matching_names(class); 7748eddac3fSPeter Zijlstra /* 7758eddac3fSPeter Zijlstra * We use RCU's safe list-add method to make 7768eddac3fSPeter Zijlstra * parallel walking of the hash-list safe: 7778eddac3fSPeter Zijlstra */ 778a63f38ccSAndrew Morton hlist_add_head_rcu(&class->hash_entry, hash_head); 7798eddac3fSPeter Zijlstra /* 7808eddac3fSPeter Zijlstra * Add it to the global list of classes: 7818eddac3fSPeter Zijlstra */ 7828eddac3fSPeter Zijlstra list_add_tail_rcu(&class->lock_entry, &all_lock_classes); 7838eddac3fSPeter Zijlstra 7848eddac3fSPeter Zijlstra if (verbose(class)) { 7858eddac3fSPeter Zijlstra graph_unlock(); 7868eddac3fSPeter Zijlstra 7878eddac3fSPeter Zijlstra printk("\nnew class %p: %s", class->key, class->name); 7888eddac3fSPeter Zijlstra if (class->name_version > 1) 7898eddac3fSPeter Zijlstra printk("#%d", class->name_version); 7908eddac3fSPeter Zijlstra printk("\n"); 7918eddac3fSPeter Zijlstra dump_stack(); 7928eddac3fSPeter Zijlstra 7938eddac3fSPeter Zijlstra if (!graph_lock()) { 7948eddac3fSPeter Zijlstra return NULL; 7958eddac3fSPeter Zijlstra } 7968eddac3fSPeter Zijlstra } 7978eddac3fSPeter Zijlstra out_unlock_set: 7988eddac3fSPeter Zijlstra graph_unlock(); 7998eddac3fSPeter Zijlstra 8008eddac3fSPeter Zijlstra out_set_class_cache: 8018eddac3fSPeter Zijlstra if (!subclass || force) 8028eddac3fSPeter Zijlstra lock->class_cache[0] = class; 8038eddac3fSPeter Zijlstra else if (subclass < NR_LOCKDEP_CACHING_CLASSES) 8048eddac3fSPeter Zijlstra lock->class_cache[subclass] = class; 8058eddac3fSPeter Zijlstra 8068eddac3fSPeter Zijlstra /* 8078eddac3fSPeter Zijlstra * Hash collision, did we smoke some? We found a class with a matching 8088eddac3fSPeter Zijlstra * hash but the subclass -- which is hashed in -- didn't match. 8098eddac3fSPeter Zijlstra */ 8108eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(class->subclass != subclass)) 8118eddac3fSPeter Zijlstra return NULL; 8128eddac3fSPeter Zijlstra 8138eddac3fSPeter Zijlstra return class; 8148eddac3fSPeter Zijlstra } 8158eddac3fSPeter Zijlstra 8168eddac3fSPeter Zijlstra #ifdef CONFIG_PROVE_LOCKING 8178eddac3fSPeter Zijlstra /* 8188eddac3fSPeter Zijlstra * Allocate a lockdep entry. (assumes the graph_lock held, returns 8198eddac3fSPeter Zijlstra * with NULL on failure) 8208eddac3fSPeter Zijlstra */ 8218eddac3fSPeter Zijlstra static struct lock_list *alloc_list_entry(void) 8228eddac3fSPeter Zijlstra { 8238eddac3fSPeter Zijlstra if (nr_list_entries >= MAX_LOCKDEP_ENTRIES) { 8248eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock()) 8258eddac3fSPeter Zijlstra return NULL; 8268eddac3fSPeter Zijlstra 8278eddac3fSPeter Zijlstra print_lockdep_off("BUG: MAX_LOCKDEP_ENTRIES too low!"); 8288eddac3fSPeter Zijlstra dump_stack(); 8298eddac3fSPeter Zijlstra return NULL; 8308eddac3fSPeter Zijlstra } 8318eddac3fSPeter Zijlstra return list_entries + nr_list_entries++; 8328eddac3fSPeter Zijlstra } 8338eddac3fSPeter Zijlstra 8348eddac3fSPeter Zijlstra /* 8358eddac3fSPeter Zijlstra * Add a new dependency to the head of the list: 8368eddac3fSPeter Zijlstra */ 8378eddac3fSPeter Zijlstra static int add_lock_to_list(struct lock_class *class, struct lock_class *this, 8388eddac3fSPeter Zijlstra struct list_head *head, unsigned long ip, 8398eddac3fSPeter Zijlstra int distance, struct stack_trace *trace) 8408eddac3fSPeter Zijlstra { 8418eddac3fSPeter Zijlstra struct lock_list *entry; 8428eddac3fSPeter Zijlstra /* 8438eddac3fSPeter Zijlstra * Lock not present yet - get a new dependency struct and 8448eddac3fSPeter Zijlstra * add it to the list: 8458eddac3fSPeter Zijlstra */ 8468eddac3fSPeter Zijlstra entry = alloc_list_entry(); 8478eddac3fSPeter Zijlstra if (!entry) 8488eddac3fSPeter Zijlstra return 0; 8498eddac3fSPeter Zijlstra 8508eddac3fSPeter Zijlstra entry->class = this; 8518eddac3fSPeter Zijlstra entry->distance = distance; 8528eddac3fSPeter Zijlstra entry->trace = *trace; 8538eddac3fSPeter Zijlstra /* 85435a9393cSPeter Zijlstra * Both allocation and removal are done under the graph lock; but 85535a9393cSPeter Zijlstra * iteration is under RCU-sched; see look_up_lock_class() and 85635a9393cSPeter Zijlstra * lockdep_free_key_range(). 8578eddac3fSPeter Zijlstra */ 8588eddac3fSPeter Zijlstra list_add_tail_rcu(&entry->entry, head); 8598eddac3fSPeter Zijlstra 8608eddac3fSPeter Zijlstra return 1; 8618eddac3fSPeter Zijlstra } 8628eddac3fSPeter Zijlstra 8638eddac3fSPeter Zijlstra /* 8648eddac3fSPeter Zijlstra * For good efficiency of modular, we use power of 2 8658eddac3fSPeter Zijlstra */ 8668eddac3fSPeter Zijlstra #define MAX_CIRCULAR_QUEUE_SIZE 4096UL 8678eddac3fSPeter Zijlstra #define CQ_MASK (MAX_CIRCULAR_QUEUE_SIZE-1) 8688eddac3fSPeter Zijlstra 8698eddac3fSPeter Zijlstra /* 8708eddac3fSPeter Zijlstra * The circular_queue and helpers is used to implement the 8718eddac3fSPeter Zijlstra * breadth-first search(BFS)algorithem, by which we can build 8728eddac3fSPeter Zijlstra * the shortest path from the next lock to be acquired to the 8738eddac3fSPeter Zijlstra * previous held lock if there is a circular between them. 8748eddac3fSPeter Zijlstra */ 8758eddac3fSPeter Zijlstra struct circular_queue { 8768eddac3fSPeter Zijlstra unsigned long element[MAX_CIRCULAR_QUEUE_SIZE]; 8778eddac3fSPeter Zijlstra unsigned int front, rear; 8788eddac3fSPeter Zijlstra }; 8798eddac3fSPeter Zijlstra 8808eddac3fSPeter Zijlstra static struct circular_queue lock_cq; 8818eddac3fSPeter Zijlstra 8828eddac3fSPeter Zijlstra unsigned int max_bfs_queue_depth; 8838eddac3fSPeter Zijlstra 8848eddac3fSPeter Zijlstra static unsigned int lockdep_dependency_gen_id; 8858eddac3fSPeter Zijlstra 8868eddac3fSPeter Zijlstra static inline void __cq_init(struct circular_queue *cq) 8878eddac3fSPeter Zijlstra { 8888eddac3fSPeter Zijlstra cq->front = cq->rear = 0; 8898eddac3fSPeter Zijlstra lockdep_dependency_gen_id++; 8908eddac3fSPeter Zijlstra } 8918eddac3fSPeter Zijlstra 8928eddac3fSPeter Zijlstra static inline int __cq_empty(struct circular_queue *cq) 8938eddac3fSPeter Zijlstra { 8948eddac3fSPeter Zijlstra return (cq->front == cq->rear); 8958eddac3fSPeter Zijlstra } 8968eddac3fSPeter Zijlstra 8978eddac3fSPeter Zijlstra static inline int __cq_full(struct circular_queue *cq) 8988eddac3fSPeter Zijlstra { 8998eddac3fSPeter Zijlstra return ((cq->rear + 1) & CQ_MASK) == cq->front; 9008eddac3fSPeter Zijlstra } 9018eddac3fSPeter Zijlstra 9028eddac3fSPeter Zijlstra static inline int __cq_enqueue(struct circular_queue *cq, unsigned long elem) 9038eddac3fSPeter Zijlstra { 9048eddac3fSPeter Zijlstra if (__cq_full(cq)) 9058eddac3fSPeter Zijlstra return -1; 9068eddac3fSPeter Zijlstra 9078eddac3fSPeter Zijlstra cq->element[cq->rear] = elem; 9088eddac3fSPeter Zijlstra cq->rear = (cq->rear + 1) & CQ_MASK; 9098eddac3fSPeter Zijlstra return 0; 9108eddac3fSPeter Zijlstra } 9118eddac3fSPeter Zijlstra 9128eddac3fSPeter Zijlstra static inline int __cq_dequeue(struct circular_queue *cq, unsigned long *elem) 9138eddac3fSPeter Zijlstra { 9148eddac3fSPeter Zijlstra if (__cq_empty(cq)) 9158eddac3fSPeter Zijlstra return -1; 9168eddac3fSPeter Zijlstra 9178eddac3fSPeter Zijlstra *elem = cq->element[cq->front]; 9188eddac3fSPeter Zijlstra cq->front = (cq->front + 1) & CQ_MASK; 9198eddac3fSPeter Zijlstra return 0; 9208eddac3fSPeter Zijlstra } 9218eddac3fSPeter Zijlstra 9228eddac3fSPeter Zijlstra static inline unsigned int __cq_get_elem_count(struct circular_queue *cq) 9238eddac3fSPeter Zijlstra { 9248eddac3fSPeter Zijlstra return (cq->rear - cq->front) & CQ_MASK; 9258eddac3fSPeter Zijlstra } 9268eddac3fSPeter Zijlstra 9278eddac3fSPeter Zijlstra static inline void mark_lock_accessed(struct lock_list *lock, 9288eddac3fSPeter Zijlstra struct lock_list *parent) 9298eddac3fSPeter Zijlstra { 9308eddac3fSPeter Zijlstra unsigned long nr; 9318eddac3fSPeter Zijlstra 9328eddac3fSPeter Zijlstra nr = lock - list_entries; 9338eddac3fSPeter Zijlstra WARN_ON(nr >= nr_list_entries); /* Out-of-bounds, input fail */ 9348eddac3fSPeter Zijlstra lock->parent = parent; 9358eddac3fSPeter Zijlstra lock->class->dep_gen_id = lockdep_dependency_gen_id; 9368eddac3fSPeter Zijlstra } 9378eddac3fSPeter Zijlstra 9388eddac3fSPeter Zijlstra static inline unsigned long lock_accessed(struct lock_list *lock) 9398eddac3fSPeter Zijlstra { 9408eddac3fSPeter Zijlstra unsigned long nr; 9418eddac3fSPeter Zijlstra 9428eddac3fSPeter Zijlstra nr = lock - list_entries; 9438eddac3fSPeter Zijlstra WARN_ON(nr >= nr_list_entries); /* Out-of-bounds, input fail */ 9448eddac3fSPeter Zijlstra return lock->class->dep_gen_id == lockdep_dependency_gen_id; 9458eddac3fSPeter Zijlstra } 9468eddac3fSPeter Zijlstra 9478eddac3fSPeter Zijlstra static inline struct lock_list *get_lock_parent(struct lock_list *child) 9488eddac3fSPeter Zijlstra { 9498eddac3fSPeter Zijlstra return child->parent; 9508eddac3fSPeter Zijlstra } 9518eddac3fSPeter Zijlstra 9528eddac3fSPeter Zijlstra static inline int get_lock_depth(struct lock_list *child) 9538eddac3fSPeter Zijlstra { 9548eddac3fSPeter Zijlstra int depth = 0; 9558eddac3fSPeter Zijlstra struct lock_list *parent; 9568eddac3fSPeter Zijlstra 9578eddac3fSPeter Zijlstra while ((parent = get_lock_parent(child))) { 9588eddac3fSPeter Zijlstra child = parent; 9598eddac3fSPeter Zijlstra depth++; 9608eddac3fSPeter Zijlstra } 9618eddac3fSPeter Zijlstra return depth; 9628eddac3fSPeter Zijlstra } 9638eddac3fSPeter Zijlstra 9648eddac3fSPeter Zijlstra static int __bfs(struct lock_list *source_entry, 9658eddac3fSPeter Zijlstra void *data, 9668eddac3fSPeter Zijlstra int (*match)(struct lock_list *entry, void *data), 9678eddac3fSPeter Zijlstra struct lock_list **target_entry, 9688eddac3fSPeter Zijlstra int forward) 9698eddac3fSPeter Zijlstra { 9708eddac3fSPeter Zijlstra struct lock_list *entry; 9718eddac3fSPeter Zijlstra struct list_head *head; 9728eddac3fSPeter Zijlstra struct circular_queue *cq = &lock_cq; 9738eddac3fSPeter Zijlstra int ret = 1; 9748eddac3fSPeter Zijlstra 9758eddac3fSPeter Zijlstra if (match(source_entry, data)) { 9768eddac3fSPeter Zijlstra *target_entry = source_entry; 9778eddac3fSPeter Zijlstra ret = 0; 9788eddac3fSPeter Zijlstra goto exit; 9798eddac3fSPeter Zijlstra } 9808eddac3fSPeter Zijlstra 9818eddac3fSPeter Zijlstra if (forward) 9828eddac3fSPeter Zijlstra head = &source_entry->class->locks_after; 9838eddac3fSPeter Zijlstra else 9848eddac3fSPeter Zijlstra head = &source_entry->class->locks_before; 9858eddac3fSPeter Zijlstra 9868eddac3fSPeter Zijlstra if (list_empty(head)) 9878eddac3fSPeter Zijlstra goto exit; 9888eddac3fSPeter Zijlstra 9898eddac3fSPeter Zijlstra __cq_init(cq); 9908eddac3fSPeter Zijlstra __cq_enqueue(cq, (unsigned long)source_entry); 9918eddac3fSPeter Zijlstra 9928eddac3fSPeter Zijlstra while (!__cq_empty(cq)) { 9938eddac3fSPeter Zijlstra struct lock_list *lock; 9948eddac3fSPeter Zijlstra 9958eddac3fSPeter Zijlstra __cq_dequeue(cq, (unsigned long *)&lock); 9968eddac3fSPeter Zijlstra 9978eddac3fSPeter Zijlstra if (!lock->class) { 9988eddac3fSPeter Zijlstra ret = -2; 9998eddac3fSPeter Zijlstra goto exit; 10008eddac3fSPeter Zijlstra } 10018eddac3fSPeter Zijlstra 10028eddac3fSPeter Zijlstra if (forward) 10038eddac3fSPeter Zijlstra head = &lock->class->locks_after; 10048eddac3fSPeter Zijlstra else 10058eddac3fSPeter Zijlstra head = &lock->class->locks_before; 10068eddac3fSPeter Zijlstra 100735a9393cSPeter Zijlstra DEBUG_LOCKS_WARN_ON(!irqs_disabled()); 100835a9393cSPeter Zijlstra 100935a9393cSPeter Zijlstra list_for_each_entry_rcu(entry, head, entry) { 10108eddac3fSPeter Zijlstra if (!lock_accessed(entry)) { 10118eddac3fSPeter Zijlstra unsigned int cq_depth; 10128eddac3fSPeter Zijlstra mark_lock_accessed(entry, lock); 10138eddac3fSPeter Zijlstra if (match(entry, data)) { 10148eddac3fSPeter Zijlstra *target_entry = entry; 10158eddac3fSPeter Zijlstra ret = 0; 10168eddac3fSPeter Zijlstra goto exit; 10178eddac3fSPeter Zijlstra } 10188eddac3fSPeter Zijlstra 10198eddac3fSPeter Zijlstra if (__cq_enqueue(cq, (unsigned long)entry)) { 10208eddac3fSPeter Zijlstra ret = -1; 10218eddac3fSPeter Zijlstra goto exit; 10228eddac3fSPeter Zijlstra } 10238eddac3fSPeter Zijlstra cq_depth = __cq_get_elem_count(cq); 10248eddac3fSPeter Zijlstra if (max_bfs_queue_depth < cq_depth) 10258eddac3fSPeter Zijlstra max_bfs_queue_depth = cq_depth; 10268eddac3fSPeter Zijlstra } 10278eddac3fSPeter Zijlstra } 10288eddac3fSPeter Zijlstra } 10298eddac3fSPeter Zijlstra exit: 10308eddac3fSPeter Zijlstra return ret; 10318eddac3fSPeter Zijlstra } 10328eddac3fSPeter Zijlstra 10338eddac3fSPeter Zijlstra static inline int __bfs_forwards(struct lock_list *src_entry, 10348eddac3fSPeter Zijlstra void *data, 10358eddac3fSPeter Zijlstra int (*match)(struct lock_list *entry, void *data), 10368eddac3fSPeter Zijlstra struct lock_list **target_entry) 10378eddac3fSPeter Zijlstra { 10388eddac3fSPeter Zijlstra return __bfs(src_entry, data, match, target_entry, 1); 10398eddac3fSPeter Zijlstra 10408eddac3fSPeter Zijlstra } 10418eddac3fSPeter Zijlstra 10428eddac3fSPeter Zijlstra static inline int __bfs_backwards(struct lock_list *src_entry, 10438eddac3fSPeter Zijlstra void *data, 10448eddac3fSPeter Zijlstra int (*match)(struct lock_list *entry, void *data), 10458eddac3fSPeter Zijlstra struct lock_list **target_entry) 10468eddac3fSPeter Zijlstra { 10478eddac3fSPeter Zijlstra return __bfs(src_entry, data, match, target_entry, 0); 10488eddac3fSPeter Zijlstra 10498eddac3fSPeter Zijlstra } 10508eddac3fSPeter Zijlstra 10518eddac3fSPeter Zijlstra /* 10528eddac3fSPeter Zijlstra * Recursive, forwards-direction lock-dependency checking, used for 10538eddac3fSPeter Zijlstra * both noncyclic checking and for hardirq-unsafe/softirq-unsafe 10548eddac3fSPeter Zijlstra * checking. 10558eddac3fSPeter Zijlstra */ 10568eddac3fSPeter Zijlstra 10578eddac3fSPeter Zijlstra /* 10588eddac3fSPeter Zijlstra * Print a dependency chain entry (this is only done when a deadlock 10598eddac3fSPeter Zijlstra * has been detected): 10608eddac3fSPeter Zijlstra */ 10618eddac3fSPeter Zijlstra static noinline int 10628eddac3fSPeter Zijlstra print_circular_bug_entry(struct lock_list *target, int depth) 10638eddac3fSPeter Zijlstra { 10648eddac3fSPeter Zijlstra if (debug_locks_silent) 10658eddac3fSPeter Zijlstra return 0; 10668eddac3fSPeter Zijlstra printk("\n-> #%u", depth); 10678eddac3fSPeter Zijlstra print_lock_name(target->class); 10688eddac3fSPeter Zijlstra printk(":\n"); 10698eddac3fSPeter Zijlstra print_stack_trace(&target->trace, 6); 10708eddac3fSPeter Zijlstra 10718eddac3fSPeter Zijlstra return 0; 10728eddac3fSPeter Zijlstra } 10738eddac3fSPeter Zijlstra 10748eddac3fSPeter Zijlstra static void 10758eddac3fSPeter Zijlstra print_circular_lock_scenario(struct held_lock *src, 10768eddac3fSPeter Zijlstra struct held_lock *tgt, 10778eddac3fSPeter Zijlstra struct lock_list *prt) 10788eddac3fSPeter Zijlstra { 10798eddac3fSPeter Zijlstra struct lock_class *source = hlock_class(src); 10808eddac3fSPeter Zijlstra struct lock_class *target = hlock_class(tgt); 10818eddac3fSPeter Zijlstra struct lock_class *parent = prt->class; 10828eddac3fSPeter Zijlstra 10838eddac3fSPeter Zijlstra /* 10848eddac3fSPeter Zijlstra * A direct locking problem where unsafe_class lock is taken 10858eddac3fSPeter Zijlstra * directly by safe_class lock, then all we need to show 10868eddac3fSPeter Zijlstra * is the deadlock scenario, as it is obvious that the 10878eddac3fSPeter Zijlstra * unsafe lock is taken under the safe lock. 10888eddac3fSPeter Zijlstra * 10898eddac3fSPeter Zijlstra * But if there is a chain instead, where the safe lock takes 10908eddac3fSPeter Zijlstra * an intermediate lock (middle_class) where this lock is 10918eddac3fSPeter Zijlstra * not the same as the safe lock, then the lock chain is 10928eddac3fSPeter Zijlstra * used to describe the problem. Otherwise we would need 10938eddac3fSPeter Zijlstra * to show a different CPU case for each link in the chain 10948eddac3fSPeter Zijlstra * from the safe_class lock to the unsafe_class lock. 10958eddac3fSPeter Zijlstra */ 10968eddac3fSPeter Zijlstra if (parent != source) { 10978eddac3fSPeter Zijlstra printk("Chain exists of:\n "); 10988eddac3fSPeter Zijlstra __print_lock_name(source); 10998eddac3fSPeter Zijlstra printk(" --> "); 11008eddac3fSPeter Zijlstra __print_lock_name(parent); 11018eddac3fSPeter Zijlstra printk(" --> "); 11028eddac3fSPeter Zijlstra __print_lock_name(target); 11038eddac3fSPeter Zijlstra printk("\n\n"); 11048eddac3fSPeter Zijlstra } 11058eddac3fSPeter Zijlstra 11068eddac3fSPeter Zijlstra printk(" Possible unsafe locking scenario:\n\n"); 11078eddac3fSPeter Zijlstra printk(" CPU0 CPU1\n"); 11088eddac3fSPeter Zijlstra printk(" ---- ----\n"); 11098eddac3fSPeter Zijlstra printk(" lock("); 11108eddac3fSPeter Zijlstra __print_lock_name(target); 11118eddac3fSPeter Zijlstra printk(");\n"); 11128eddac3fSPeter Zijlstra printk(" lock("); 11138eddac3fSPeter Zijlstra __print_lock_name(parent); 11148eddac3fSPeter Zijlstra printk(");\n"); 11158eddac3fSPeter Zijlstra printk(" lock("); 11168eddac3fSPeter Zijlstra __print_lock_name(target); 11178eddac3fSPeter Zijlstra printk(");\n"); 11188eddac3fSPeter Zijlstra printk(" lock("); 11198eddac3fSPeter Zijlstra __print_lock_name(source); 11208eddac3fSPeter Zijlstra printk(");\n"); 11218eddac3fSPeter Zijlstra printk("\n *** DEADLOCK ***\n\n"); 11228eddac3fSPeter Zijlstra } 11238eddac3fSPeter Zijlstra 11248eddac3fSPeter Zijlstra /* 11258eddac3fSPeter Zijlstra * When a circular dependency is detected, print the 11268eddac3fSPeter Zijlstra * header first: 11278eddac3fSPeter Zijlstra */ 11288eddac3fSPeter Zijlstra static noinline int 11298eddac3fSPeter Zijlstra print_circular_bug_header(struct lock_list *entry, unsigned int depth, 11308eddac3fSPeter Zijlstra struct held_lock *check_src, 11318eddac3fSPeter Zijlstra struct held_lock *check_tgt) 11328eddac3fSPeter Zijlstra { 11338eddac3fSPeter Zijlstra struct task_struct *curr = current; 11348eddac3fSPeter Zijlstra 11358eddac3fSPeter Zijlstra if (debug_locks_silent) 11368eddac3fSPeter Zijlstra return 0; 11378eddac3fSPeter Zijlstra 11388eddac3fSPeter Zijlstra printk("\n"); 11398eddac3fSPeter Zijlstra printk("======================================================\n"); 11408eddac3fSPeter Zijlstra printk("[ INFO: possible circular locking dependency detected ]\n"); 11418eddac3fSPeter Zijlstra print_kernel_ident(); 11428eddac3fSPeter Zijlstra printk("-------------------------------------------------------\n"); 11438eddac3fSPeter Zijlstra printk("%s/%d is trying to acquire lock:\n", 11448eddac3fSPeter Zijlstra curr->comm, task_pid_nr(curr)); 11458eddac3fSPeter Zijlstra print_lock(check_src); 11468eddac3fSPeter Zijlstra printk("\nbut task is already holding lock:\n"); 11478eddac3fSPeter Zijlstra print_lock(check_tgt); 11488eddac3fSPeter Zijlstra printk("\nwhich lock already depends on the new lock.\n\n"); 11498eddac3fSPeter Zijlstra printk("\nthe existing dependency chain (in reverse order) is:\n"); 11508eddac3fSPeter Zijlstra 11518eddac3fSPeter Zijlstra print_circular_bug_entry(entry, depth); 11528eddac3fSPeter Zijlstra 11538eddac3fSPeter Zijlstra return 0; 11548eddac3fSPeter Zijlstra } 11558eddac3fSPeter Zijlstra 11568eddac3fSPeter Zijlstra static inline int class_equal(struct lock_list *entry, void *data) 11578eddac3fSPeter Zijlstra { 11588eddac3fSPeter Zijlstra return entry->class == data; 11598eddac3fSPeter Zijlstra } 11608eddac3fSPeter Zijlstra 11618eddac3fSPeter Zijlstra static noinline int print_circular_bug(struct lock_list *this, 11628eddac3fSPeter Zijlstra struct lock_list *target, 11638eddac3fSPeter Zijlstra struct held_lock *check_src, 11648eddac3fSPeter Zijlstra struct held_lock *check_tgt) 11658eddac3fSPeter Zijlstra { 11668eddac3fSPeter Zijlstra struct task_struct *curr = current; 11678eddac3fSPeter Zijlstra struct lock_list *parent; 11688eddac3fSPeter Zijlstra struct lock_list *first_parent; 11698eddac3fSPeter Zijlstra int depth; 11708eddac3fSPeter Zijlstra 11718eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock() || debug_locks_silent) 11728eddac3fSPeter Zijlstra return 0; 11738eddac3fSPeter Zijlstra 11748eddac3fSPeter Zijlstra if (!save_trace(&this->trace)) 11758eddac3fSPeter Zijlstra return 0; 11768eddac3fSPeter Zijlstra 11778eddac3fSPeter Zijlstra depth = get_lock_depth(target); 11788eddac3fSPeter Zijlstra 11798eddac3fSPeter Zijlstra print_circular_bug_header(target, depth, check_src, check_tgt); 11808eddac3fSPeter Zijlstra 11818eddac3fSPeter Zijlstra parent = get_lock_parent(target); 11828eddac3fSPeter Zijlstra first_parent = parent; 11838eddac3fSPeter Zijlstra 11848eddac3fSPeter Zijlstra while (parent) { 11858eddac3fSPeter Zijlstra print_circular_bug_entry(parent, --depth); 11868eddac3fSPeter Zijlstra parent = get_lock_parent(parent); 11878eddac3fSPeter Zijlstra } 11888eddac3fSPeter Zijlstra 11898eddac3fSPeter Zijlstra printk("\nother info that might help us debug this:\n\n"); 11908eddac3fSPeter Zijlstra print_circular_lock_scenario(check_src, check_tgt, 11918eddac3fSPeter Zijlstra first_parent); 11928eddac3fSPeter Zijlstra 11938eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 11948eddac3fSPeter Zijlstra 11958eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 11968eddac3fSPeter Zijlstra dump_stack(); 11978eddac3fSPeter Zijlstra 11988eddac3fSPeter Zijlstra return 0; 11998eddac3fSPeter Zijlstra } 12008eddac3fSPeter Zijlstra 12018eddac3fSPeter Zijlstra static noinline int print_bfs_bug(int ret) 12028eddac3fSPeter Zijlstra { 12038eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock()) 12048eddac3fSPeter Zijlstra return 0; 12058eddac3fSPeter Zijlstra 12068eddac3fSPeter Zijlstra /* 12078eddac3fSPeter Zijlstra * Breadth-first-search failed, graph got corrupted? 12088eddac3fSPeter Zijlstra */ 12098eddac3fSPeter Zijlstra WARN(1, "lockdep bfs error:%d\n", ret); 12108eddac3fSPeter Zijlstra 12118eddac3fSPeter Zijlstra return 0; 12128eddac3fSPeter Zijlstra } 12138eddac3fSPeter Zijlstra 12148eddac3fSPeter Zijlstra static int noop_count(struct lock_list *entry, void *data) 12158eddac3fSPeter Zijlstra { 12168eddac3fSPeter Zijlstra (*(unsigned long *)data)++; 12178eddac3fSPeter Zijlstra return 0; 12188eddac3fSPeter Zijlstra } 12198eddac3fSPeter Zijlstra 12205216d530SFengguang Wu static unsigned long __lockdep_count_forward_deps(struct lock_list *this) 12218eddac3fSPeter Zijlstra { 12228eddac3fSPeter Zijlstra unsigned long count = 0; 12238eddac3fSPeter Zijlstra struct lock_list *uninitialized_var(target_entry); 12248eddac3fSPeter Zijlstra 12258eddac3fSPeter Zijlstra __bfs_forwards(this, (void *)&count, noop_count, &target_entry); 12268eddac3fSPeter Zijlstra 12278eddac3fSPeter Zijlstra return count; 12288eddac3fSPeter Zijlstra } 12298eddac3fSPeter Zijlstra unsigned long lockdep_count_forward_deps(struct lock_class *class) 12308eddac3fSPeter Zijlstra { 12318eddac3fSPeter Zijlstra unsigned long ret, flags; 12328eddac3fSPeter Zijlstra struct lock_list this; 12338eddac3fSPeter Zijlstra 12348eddac3fSPeter Zijlstra this.parent = NULL; 12358eddac3fSPeter Zijlstra this.class = class; 12368eddac3fSPeter Zijlstra 12378eddac3fSPeter Zijlstra local_irq_save(flags); 12388eddac3fSPeter Zijlstra arch_spin_lock(&lockdep_lock); 12398eddac3fSPeter Zijlstra ret = __lockdep_count_forward_deps(&this); 12408eddac3fSPeter Zijlstra arch_spin_unlock(&lockdep_lock); 12418eddac3fSPeter Zijlstra local_irq_restore(flags); 12428eddac3fSPeter Zijlstra 12438eddac3fSPeter Zijlstra return ret; 12448eddac3fSPeter Zijlstra } 12458eddac3fSPeter Zijlstra 12465216d530SFengguang Wu static unsigned long __lockdep_count_backward_deps(struct lock_list *this) 12478eddac3fSPeter Zijlstra { 12488eddac3fSPeter Zijlstra unsigned long count = 0; 12498eddac3fSPeter Zijlstra struct lock_list *uninitialized_var(target_entry); 12508eddac3fSPeter Zijlstra 12518eddac3fSPeter Zijlstra __bfs_backwards(this, (void *)&count, noop_count, &target_entry); 12528eddac3fSPeter Zijlstra 12538eddac3fSPeter Zijlstra return count; 12548eddac3fSPeter Zijlstra } 12558eddac3fSPeter Zijlstra 12568eddac3fSPeter Zijlstra unsigned long lockdep_count_backward_deps(struct lock_class *class) 12578eddac3fSPeter Zijlstra { 12588eddac3fSPeter Zijlstra unsigned long ret, flags; 12598eddac3fSPeter Zijlstra struct lock_list this; 12608eddac3fSPeter Zijlstra 12618eddac3fSPeter Zijlstra this.parent = NULL; 12628eddac3fSPeter Zijlstra this.class = class; 12638eddac3fSPeter Zijlstra 12648eddac3fSPeter Zijlstra local_irq_save(flags); 12658eddac3fSPeter Zijlstra arch_spin_lock(&lockdep_lock); 12668eddac3fSPeter Zijlstra ret = __lockdep_count_backward_deps(&this); 12678eddac3fSPeter Zijlstra arch_spin_unlock(&lockdep_lock); 12688eddac3fSPeter Zijlstra local_irq_restore(flags); 12698eddac3fSPeter Zijlstra 12708eddac3fSPeter Zijlstra return ret; 12718eddac3fSPeter Zijlstra } 12728eddac3fSPeter Zijlstra 12738eddac3fSPeter Zijlstra /* 12748eddac3fSPeter Zijlstra * Prove that the dependency graph starting at <entry> can not 12758eddac3fSPeter Zijlstra * lead to <target>. Print an error and return 0 if it does. 12768eddac3fSPeter Zijlstra */ 12778eddac3fSPeter Zijlstra static noinline int 12788eddac3fSPeter Zijlstra check_noncircular(struct lock_list *root, struct lock_class *target, 12798eddac3fSPeter Zijlstra struct lock_list **target_entry) 12808eddac3fSPeter Zijlstra { 12818eddac3fSPeter Zijlstra int result; 12828eddac3fSPeter Zijlstra 12838eddac3fSPeter Zijlstra debug_atomic_inc(nr_cyclic_checks); 12848eddac3fSPeter Zijlstra 12858eddac3fSPeter Zijlstra result = __bfs_forwards(root, target, class_equal, target_entry); 12868eddac3fSPeter Zijlstra 12878eddac3fSPeter Zijlstra return result; 12888eddac3fSPeter Zijlstra } 12898eddac3fSPeter Zijlstra 12908eddac3fSPeter Zijlstra #if defined(CONFIG_TRACE_IRQFLAGS) && defined(CONFIG_PROVE_LOCKING) 12918eddac3fSPeter Zijlstra /* 12928eddac3fSPeter Zijlstra * Forwards and backwards subgraph searching, for the purposes of 12938eddac3fSPeter Zijlstra * proving that two subgraphs can be connected by a new dependency 12948eddac3fSPeter Zijlstra * without creating any illegal irq-safe -> irq-unsafe lock dependency. 12958eddac3fSPeter Zijlstra */ 12968eddac3fSPeter Zijlstra 12978eddac3fSPeter Zijlstra static inline int usage_match(struct lock_list *entry, void *bit) 12988eddac3fSPeter Zijlstra { 12998eddac3fSPeter Zijlstra return entry->class->usage_mask & (1 << (enum lock_usage_bit)bit); 13008eddac3fSPeter Zijlstra } 13018eddac3fSPeter Zijlstra 13028eddac3fSPeter Zijlstra 13038eddac3fSPeter Zijlstra 13048eddac3fSPeter Zijlstra /* 13058eddac3fSPeter Zijlstra * Find a node in the forwards-direction dependency sub-graph starting 13068eddac3fSPeter Zijlstra * at @root->class that matches @bit. 13078eddac3fSPeter Zijlstra * 13088eddac3fSPeter Zijlstra * Return 0 if such a node exists in the subgraph, and put that node 13098eddac3fSPeter Zijlstra * into *@target_entry. 13108eddac3fSPeter Zijlstra * 13118eddac3fSPeter Zijlstra * Return 1 otherwise and keep *@target_entry unchanged. 13128eddac3fSPeter Zijlstra * Return <0 on error. 13138eddac3fSPeter Zijlstra */ 13148eddac3fSPeter Zijlstra static int 13158eddac3fSPeter Zijlstra find_usage_forwards(struct lock_list *root, enum lock_usage_bit bit, 13168eddac3fSPeter Zijlstra struct lock_list **target_entry) 13178eddac3fSPeter Zijlstra { 13188eddac3fSPeter Zijlstra int result; 13198eddac3fSPeter Zijlstra 13208eddac3fSPeter Zijlstra debug_atomic_inc(nr_find_usage_forwards_checks); 13218eddac3fSPeter Zijlstra 13228eddac3fSPeter Zijlstra result = __bfs_forwards(root, (void *)bit, usage_match, target_entry); 13238eddac3fSPeter Zijlstra 13248eddac3fSPeter Zijlstra return result; 13258eddac3fSPeter Zijlstra } 13268eddac3fSPeter Zijlstra 13278eddac3fSPeter Zijlstra /* 13288eddac3fSPeter Zijlstra * Find a node in the backwards-direction dependency sub-graph starting 13298eddac3fSPeter Zijlstra * at @root->class that matches @bit. 13308eddac3fSPeter Zijlstra * 13318eddac3fSPeter Zijlstra * Return 0 if such a node exists in the subgraph, and put that node 13328eddac3fSPeter Zijlstra * into *@target_entry. 13338eddac3fSPeter Zijlstra * 13348eddac3fSPeter Zijlstra * Return 1 otherwise and keep *@target_entry unchanged. 13358eddac3fSPeter Zijlstra * Return <0 on error. 13368eddac3fSPeter Zijlstra */ 13378eddac3fSPeter Zijlstra static int 13388eddac3fSPeter Zijlstra find_usage_backwards(struct lock_list *root, enum lock_usage_bit bit, 13398eddac3fSPeter Zijlstra struct lock_list **target_entry) 13408eddac3fSPeter Zijlstra { 13418eddac3fSPeter Zijlstra int result; 13428eddac3fSPeter Zijlstra 13438eddac3fSPeter Zijlstra debug_atomic_inc(nr_find_usage_backwards_checks); 13448eddac3fSPeter Zijlstra 13458eddac3fSPeter Zijlstra result = __bfs_backwards(root, (void *)bit, usage_match, target_entry); 13468eddac3fSPeter Zijlstra 13478eddac3fSPeter Zijlstra return result; 13488eddac3fSPeter Zijlstra } 13498eddac3fSPeter Zijlstra 13508eddac3fSPeter Zijlstra static void print_lock_class_header(struct lock_class *class, int depth) 13518eddac3fSPeter Zijlstra { 13528eddac3fSPeter Zijlstra int bit; 13538eddac3fSPeter Zijlstra 13548eddac3fSPeter Zijlstra printk("%*s->", depth, ""); 13558eddac3fSPeter Zijlstra print_lock_name(class); 13568eddac3fSPeter Zijlstra printk(" ops: %lu", class->ops); 13578eddac3fSPeter Zijlstra printk(" {\n"); 13588eddac3fSPeter Zijlstra 13598eddac3fSPeter Zijlstra for (bit = 0; bit < LOCK_USAGE_STATES; bit++) { 13608eddac3fSPeter Zijlstra if (class->usage_mask & (1 << bit)) { 13618eddac3fSPeter Zijlstra int len = depth; 13628eddac3fSPeter Zijlstra 13638eddac3fSPeter Zijlstra len += printk("%*s %s", depth, "", usage_str[bit]); 13648eddac3fSPeter Zijlstra len += printk(" at:\n"); 13658eddac3fSPeter Zijlstra print_stack_trace(class->usage_traces + bit, len); 13668eddac3fSPeter Zijlstra } 13678eddac3fSPeter Zijlstra } 13688eddac3fSPeter Zijlstra printk("%*s }\n", depth, ""); 13698eddac3fSPeter Zijlstra 13708eddac3fSPeter Zijlstra printk("%*s ... key at: ",depth,""); 13718eddac3fSPeter Zijlstra print_ip_sym((unsigned long)class->key); 13728eddac3fSPeter Zijlstra } 13738eddac3fSPeter Zijlstra 13748eddac3fSPeter Zijlstra /* 13758eddac3fSPeter Zijlstra * printk the shortest lock dependencies from @start to @end in reverse order: 13768eddac3fSPeter Zijlstra */ 13778eddac3fSPeter Zijlstra static void __used 13788eddac3fSPeter Zijlstra print_shortest_lock_dependencies(struct lock_list *leaf, 13798eddac3fSPeter Zijlstra struct lock_list *root) 13808eddac3fSPeter Zijlstra { 13818eddac3fSPeter Zijlstra struct lock_list *entry = leaf; 13828eddac3fSPeter Zijlstra int depth; 13838eddac3fSPeter Zijlstra 13848eddac3fSPeter Zijlstra /*compute depth from generated tree by BFS*/ 13858eddac3fSPeter Zijlstra depth = get_lock_depth(leaf); 13868eddac3fSPeter Zijlstra 13878eddac3fSPeter Zijlstra do { 13888eddac3fSPeter Zijlstra print_lock_class_header(entry->class, depth); 13898eddac3fSPeter Zijlstra printk("%*s ... acquired at:\n", depth, ""); 13908eddac3fSPeter Zijlstra print_stack_trace(&entry->trace, 2); 13918eddac3fSPeter Zijlstra printk("\n"); 13928eddac3fSPeter Zijlstra 13938eddac3fSPeter Zijlstra if (depth == 0 && (entry != root)) { 13948eddac3fSPeter Zijlstra printk("lockdep:%s bad path found in chain graph\n", __func__); 13958eddac3fSPeter Zijlstra break; 13968eddac3fSPeter Zijlstra } 13978eddac3fSPeter Zijlstra 13988eddac3fSPeter Zijlstra entry = get_lock_parent(entry); 13998eddac3fSPeter Zijlstra depth--; 14008eddac3fSPeter Zijlstra } while (entry && (depth >= 0)); 14018eddac3fSPeter Zijlstra 14028eddac3fSPeter Zijlstra return; 14038eddac3fSPeter Zijlstra } 14048eddac3fSPeter Zijlstra 14058eddac3fSPeter Zijlstra static void 14068eddac3fSPeter Zijlstra print_irq_lock_scenario(struct lock_list *safe_entry, 14078eddac3fSPeter Zijlstra struct lock_list *unsafe_entry, 14088eddac3fSPeter Zijlstra struct lock_class *prev_class, 14098eddac3fSPeter Zijlstra struct lock_class *next_class) 14108eddac3fSPeter Zijlstra { 14118eddac3fSPeter Zijlstra struct lock_class *safe_class = safe_entry->class; 14128eddac3fSPeter Zijlstra struct lock_class *unsafe_class = unsafe_entry->class; 14138eddac3fSPeter Zijlstra struct lock_class *middle_class = prev_class; 14148eddac3fSPeter Zijlstra 14158eddac3fSPeter Zijlstra if (middle_class == safe_class) 14168eddac3fSPeter Zijlstra middle_class = next_class; 14178eddac3fSPeter Zijlstra 14188eddac3fSPeter Zijlstra /* 14198eddac3fSPeter Zijlstra * A direct locking problem where unsafe_class lock is taken 14208eddac3fSPeter Zijlstra * directly by safe_class lock, then all we need to show 14218eddac3fSPeter Zijlstra * is the deadlock scenario, as it is obvious that the 14228eddac3fSPeter Zijlstra * unsafe lock is taken under the safe lock. 14238eddac3fSPeter Zijlstra * 14248eddac3fSPeter Zijlstra * But if there is a chain instead, where the safe lock takes 14258eddac3fSPeter Zijlstra * an intermediate lock (middle_class) where this lock is 14268eddac3fSPeter Zijlstra * not the same as the safe lock, then the lock chain is 14278eddac3fSPeter Zijlstra * used to describe the problem. Otherwise we would need 14288eddac3fSPeter Zijlstra * to show a different CPU case for each link in the chain 14298eddac3fSPeter Zijlstra * from the safe_class lock to the unsafe_class lock. 14308eddac3fSPeter Zijlstra */ 14318eddac3fSPeter Zijlstra if (middle_class != unsafe_class) { 14328eddac3fSPeter Zijlstra printk("Chain exists of:\n "); 14338eddac3fSPeter Zijlstra __print_lock_name(safe_class); 14348eddac3fSPeter Zijlstra printk(" --> "); 14358eddac3fSPeter Zijlstra __print_lock_name(middle_class); 14368eddac3fSPeter Zijlstra printk(" --> "); 14378eddac3fSPeter Zijlstra __print_lock_name(unsafe_class); 14388eddac3fSPeter Zijlstra printk("\n\n"); 14398eddac3fSPeter Zijlstra } 14408eddac3fSPeter Zijlstra 14418eddac3fSPeter Zijlstra printk(" Possible interrupt unsafe locking scenario:\n\n"); 14428eddac3fSPeter Zijlstra printk(" CPU0 CPU1\n"); 14438eddac3fSPeter Zijlstra printk(" ---- ----\n"); 14448eddac3fSPeter Zijlstra printk(" lock("); 14458eddac3fSPeter Zijlstra __print_lock_name(unsafe_class); 14468eddac3fSPeter Zijlstra printk(");\n"); 14478eddac3fSPeter Zijlstra printk(" local_irq_disable();\n"); 14488eddac3fSPeter Zijlstra printk(" lock("); 14498eddac3fSPeter Zijlstra __print_lock_name(safe_class); 14508eddac3fSPeter Zijlstra printk(");\n"); 14518eddac3fSPeter Zijlstra printk(" lock("); 14528eddac3fSPeter Zijlstra __print_lock_name(middle_class); 14538eddac3fSPeter Zijlstra printk(");\n"); 14548eddac3fSPeter Zijlstra printk(" <Interrupt>\n"); 14558eddac3fSPeter Zijlstra printk(" lock("); 14568eddac3fSPeter Zijlstra __print_lock_name(safe_class); 14578eddac3fSPeter Zijlstra printk(");\n"); 14588eddac3fSPeter Zijlstra printk("\n *** DEADLOCK ***\n\n"); 14598eddac3fSPeter Zijlstra } 14608eddac3fSPeter Zijlstra 14618eddac3fSPeter Zijlstra static int 14628eddac3fSPeter Zijlstra print_bad_irq_dependency(struct task_struct *curr, 14638eddac3fSPeter Zijlstra struct lock_list *prev_root, 14648eddac3fSPeter Zijlstra struct lock_list *next_root, 14658eddac3fSPeter Zijlstra struct lock_list *backwards_entry, 14668eddac3fSPeter Zijlstra struct lock_list *forwards_entry, 14678eddac3fSPeter Zijlstra struct held_lock *prev, 14688eddac3fSPeter Zijlstra struct held_lock *next, 14698eddac3fSPeter Zijlstra enum lock_usage_bit bit1, 14708eddac3fSPeter Zijlstra enum lock_usage_bit bit2, 14718eddac3fSPeter Zijlstra const char *irqclass) 14728eddac3fSPeter Zijlstra { 14738eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock() || debug_locks_silent) 14748eddac3fSPeter Zijlstra return 0; 14758eddac3fSPeter Zijlstra 14768eddac3fSPeter Zijlstra printk("\n"); 14778eddac3fSPeter Zijlstra printk("======================================================\n"); 14788eddac3fSPeter Zijlstra printk("[ INFO: %s-safe -> %s-unsafe lock order detected ]\n", 14798eddac3fSPeter Zijlstra irqclass, irqclass); 14808eddac3fSPeter Zijlstra print_kernel_ident(); 14818eddac3fSPeter Zijlstra printk("------------------------------------------------------\n"); 14828eddac3fSPeter Zijlstra printk("%s/%d [HC%u[%lu]:SC%u[%lu]:HE%u:SE%u] is trying to acquire:\n", 14838eddac3fSPeter Zijlstra curr->comm, task_pid_nr(curr), 14848eddac3fSPeter Zijlstra curr->hardirq_context, hardirq_count() >> HARDIRQ_SHIFT, 14858eddac3fSPeter Zijlstra curr->softirq_context, softirq_count() >> SOFTIRQ_SHIFT, 14868eddac3fSPeter Zijlstra curr->hardirqs_enabled, 14878eddac3fSPeter Zijlstra curr->softirqs_enabled); 14888eddac3fSPeter Zijlstra print_lock(next); 14898eddac3fSPeter Zijlstra 14908eddac3fSPeter Zijlstra printk("\nand this task is already holding:\n"); 14918eddac3fSPeter Zijlstra print_lock(prev); 14928eddac3fSPeter Zijlstra printk("which would create a new lock dependency:\n"); 14938eddac3fSPeter Zijlstra print_lock_name(hlock_class(prev)); 14948eddac3fSPeter Zijlstra printk(" ->"); 14958eddac3fSPeter Zijlstra print_lock_name(hlock_class(next)); 14968eddac3fSPeter Zijlstra printk("\n"); 14978eddac3fSPeter Zijlstra 14988eddac3fSPeter Zijlstra printk("\nbut this new dependency connects a %s-irq-safe lock:\n", 14998eddac3fSPeter Zijlstra irqclass); 15008eddac3fSPeter Zijlstra print_lock_name(backwards_entry->class); 15018eddac3fSPeter Zijlstra printk("\n... which became %s-irq-safe at:\n", irqclass); 15028eddac3fSPeter Zijlstra 15038eddac3fSPeter Zijlstra print_stack_trace(backwards_entry->class->usage_traces + bit1, 1); 15048eddac3fSPeter Zijlstra 15058eddac3fSPeter Zijlstra printk("\nto a %s-irq-unsafe lock:\n", irqclass); 15068eddac3fSPeter Zijlstra print_lock_name(forwards_entry->class); 15078eddac3fSPeter Zijlstra printk("\n... which became %s-irq-unsafe at:\n", irqclass); 15088eddac3fSPeter Zijlstra printk("..."); 15098eddac3fSPeter Zijlstra 15108eddac3fSPeter Zijlstra print_stack_trace(forwards_entry->class->usage_traces + bit2, 1); 15118eddac3fSPeter Zijlstra 15128eddac3fSPeter Zijlstra printk("\nother info that might help us debug this:\n\n"); 15138eddac3fSPeter Zijlstra print_irq_lock_scenario(backwards_entry, forwards_entry, 15148eddac3fSPeter Zijlstra hlock_class(prev), hlock_class(next)); 15158eddac3fSPeter Zijlstra 15168eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 15178eddac3fSPeter Zijlstra 15188eddac3fSPeter Zijlstra printk("\nthe dependencies between %s-irq-safe lock", irqclass); 15198eddac3fSPeter Zijlstra printk(" and the holding lock:\n"); 15208eddac3fSPeter Zijlstra if (!save_trace(&prev_root->trace)) 15218eddac3fSPeter Zijlstra return 0; 15228eddac3fSPeter Zijlstra print_shortest_lock_dependencies(backwards_entry, prev_root); 15238eddac3fSPeter Zijlstra 15248eddac3fSPeter Zijlstra printk("\nthe dependencies between the lock to be acquired"); 15258eddac3fSPeter Zijlstra printk(" and %s-irq-unsafe lock:\n", irqclass); 15268eddac3fSPeter Zijlstra if (!save_trace(&next_root->trace)) 15278eddac3fSPeter Zijlstra return 0; 15288eddac3fSPeter Zijlstra print_shortest_lock_dependencies(forwards_entry, next_root); 15298eddac3fSPeter Zijlstra 15308eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 15318eddac3fSPeter Zijlstra dump_stack(); 15328eddac3fSPeter Zijlstra 15338eddac3fSPeter Zijlstra return 0; 15348eddac3fSPeter Zijlstra } 15358eddac3fSPeter Zijlstra 15368eddac3fSPeter Zijlstra static int 15378eddac3fSPeter Zijlstra check_usage(struct task_struct *curr, struct held_lock *prev, 15388eddac3fSPeter Zijlstra struct held_lock *next, enum lock_usage_bit bit_backwards, 15398eddac3fSPeter Zijlstra enum lock_usage_bit bit_forwards, const char *irqclass) 15408eddac3fSPeter Zijlstra { 15418eddac3fSPeter Zijlstra int ret; 15428eddac3fSPeter Zijlstra struct lock_list this, that; 15438eddac3fSPeter Zijlstra struct lock_list *uninitialized_var(target_entry); 15448eddac3fSPeter Zijlstra struct lock_list *uninitialized_var(target_entry1); 15458eddac3fSPeter Zijlstra 15468eddac3fSPeter Zijlstra this.parent = NULL; 15478eddac3fSPeter Zijlstra 15488eddac3fSPeter Zijlstra this.class = hlock_class(prev); 15498eddac3fSPeter Zijlstra ret = find_usage_backwards(&this, bit_backwards, &target_entry); 15508eddac3fSPeter Zijlstra if (ret < 0) 15518eddac3fSPeter Zijlstra return print_bfs_bug(ret); 15528eddac3fSPeter Zijlstra if (ret == 1) 15538eddac3fSPeter Zijlstra return ret; 15548eddac3fSPeter Zijlstra 15558eddac3fSPeter Zijlstra that.parent = NULL; 15568eddac3fSPeter Zijlstra that.class = hlock_class(next); 15578eddac3fSPeter Zijlstra ret = find_usage_forwards(&that, bit_forwards, &target_entry1); 15588eddac3fSPeter Zijlstra if (ret < 0) 15598eddac3fSPeter Zijlstra return print_bfs_bug(ret); 15608eddac3fSPeter Zijlstra if (ret == 1) 15618eddac3fSPeter Zijlstra return ret; 15628eddac3fSPeter Zijlstra 15638eddac3fSPeter Zijlstra return print_bad_irq_dependency(curr, &this, &that, 15648eddac3fSPeter Zijlstra target_entry, target_entry1, 15658eddac3fSPeter Zijlstra prev, next, 15668eddac3fSPeter Zijlstra bit_backwards, bit_forwards, irqclass); 15678eddac3fSPeter Zijlstra } 15688eddac3fSPeter Zijlstra 15698eddac3fSPeter Zijlstra static const char *state_names[] = { 15708eddac3fSPeter Zijlstra #define LOCKDEP_STATE(__STATE) \ 15718eddac3fSPeter Zijlstra __stringify(__STATE), 15728eddac3fSPeter Zijlstra #include "lockdep_states.h" 15738eddac3fSPeter Zijlstra #undef LOCKDEP_STATE 15748eddac3fSPeter Zijlstra }; 15758eddac3fSPeter Zijlstra 15768eddac3fSPeter Zijlstra static const char *state_rnames[] = { 15778eddac3fSPeter Zijlstra #define LOCKDEP_STATE(__STATE) \ 15788eddac3fSPeter Zijlstra __stringify(__STATE)"-READ", 15798eddac3fSPeter Zijlstra #include "lockdep_states.h" 15808eddac3fSPeter Zijlstra #undef LOCKDEP_STATE 15818eddac3fSPeter Zijlstra }; 15828eddac3fSPeter Zijlstra 15838eddac3fSPeter Zijlstra static inline const char *state_name(enum lock_usage_bit bit) 15848eddac3fSPeter Zijlstra { 15858eddac3fSPeter Zijlstra return (bit & 1) ? state_rnames[bit >> 2] : state_names[bit >> 2]; 15868eddac3fSPeter Zijlstra } 15878eddac3fSPeter Zijlstra 15888eddac3fSPeter Zijlstra static int exclusive_bit(int new_bit) 15898eddac3fSPeter Zijlstra { 15908eddac3fSPeter Zijlstra /* 15918eddac3fSPeter Zijlstra * USED_IN 15928eddac3fSPeter Zijlstra * USED_IN_READ 15938eddac3fSPeter Zijlstra * ENABLED 15948eddac3fSPeter Zijlstra * ENABLED_READ 15958eddac3fSPeter Zijlstra * 15968eddac3fSPeter Zijlstra * bit 0 - write/read 15978eddac3fSPeter Zijlstra * bit 1 - used_in/enabled 15988eddac3fSPeter Zijlstra * bit 2+ state 15998eddac3fSPeter Zijlstra */ 16008eddac3fSPeter Zijlstra 16018eddac3fSPeter Zijlstra int state = new_bit & ~3; 16028eddac3fSPeter Zijlstra int dir = new_bit & 2; 16038eddac3fSPeter Zijlstra 16048eddac3fSPeter Zijlstra /* 16058eddac3fSPeter Zijlstra * keep state, bit flip the direction and strip read. 16068eddac3fSPeter Zijlstra */ 16078eddac3fSPeter Zijlstra return state | (dir ^ 2); 16088eddac3fSPeter Zijlstra } 16098eddac3fSPeter Zijlstra 16108eddac3fSPeter Zijlstra static int check_irq_usage(struct task_struct *curr, struct held_lock *prev, 16118eddac3fSPeter Zijlstra struct held_lock *next, enum lock_usage_bit bit) 16128eddac3fSPeter Zijlstra { 16138eddac3fSPeter Zijlstra /* 16148eddac3fSPeter Zijlstra * Prove that the new dependency does not connect a hardirq-safe 16158eddac3fSPeter Zijlstra * lock with a hardirq-unsafe lock - to achieve this we search 16168eddac3fSPeter Zijlstra * the backwards-subgraph starting at <prev>, and the 16178eddac3fSPeter Zijlstra * forwards-subgraph starting at <next>: 16188eddac3fSPeter Zijlstra */ 16198eddac3fSPeter Zijlstra if (!check_usage(curr, prev, next, bit, 16208eddac3fSPeter Zijlstra exclusive_bit(bit), state_name(bit))) 16218eddac3fSPeter Zijlstra return 0; 16228eddac3fSPeter Zijlstra 16238eddac3fSPeter Zijlstra bit++; /* _READ */ 16248eddac3fSPeter Zijlstra 16258eddac3fSPeter Zijlstra /* 16268eddac3fSPeter Zijlstra * Prove that the new dependency does not connect a hardirq-safe-read 16278eddac3fSPeter Zijlstra * lock with a hardirq-unsafe lock - to achieve this we search 16288eddac3fSPeter Zijlstra * the backwards-subgraph starting at <prev>, and the 16298eddac3fSPeter Zijlstra * forwards-subgraph starting at <next>: 16308eddac3fSPeter Zijlstra */ 16318eddac3fSPeter Zijlstra if (!check_usage(curr, prev, next, bit, 16328eddac3fSPeter Zijlstra exclusive_bit(bit), state_name(bit))) 16338eddac3fSPeter Zijlstra return 0; 16348eddac3fSPeter Zijlstra 16358eddac3fSPeter Zijlstra return 1; 16368eddac3fSPeter Zijlstra } 16378eddac3fSPeter Zijlstra 16388eddac3fSPeter Zijlstra static int 16398eddac3fSPeter Zijlstra check_prev_add_irq(struct task_struct *curr, struct held_lock *prev, 16408eddac3fSPeter Zijlstra struct held_lock *next) 16418eddac3fSPeter Zijlstra { 16428eddac3fSPeter Zijlstra #define LOCKDEP_STATE(__STATE) \ 16438eddac3fSPeter Zijlstra if (!check_irq_usage(curr, prev, next, LOCK_USED_IN_##__STATE)) \ 16448eddac3fSPeter Zijlstra return 0; 16458eddac3fSPeter Zijlstra #include "lockdep_states.h" 16468eddac3fSPeter Zijlstra #undef LOCKDEP_STATE 16478eddac3fSPeter Zijlstra 16488eddac3fSPeter Zijlstra return 1; 16498eddac3fSPeter Zijlstra } 16508eddac3fSPeter Zijlstra 16518eddac3fSPeter Zijlstra static void inc_chains(void) 16528eddac3fSPeter Zijlstra { 16538eddac3fSPeter Zijlstra if (current->hardirq_context) 16548eddac3fSPeter Zijlstra nr_hardirq_chains++; 16558eddac3fSPeter Zijlstra else { 16568eddac3fSPeter Zijlstra if (current->softirq_context) 16578eddac3fSPeter Zijlstra nr_softirq_chains++; 16588eddac3fSPeter Zijlstra else 16598eddac3fSPeter Zijlstra nr_process_chains++; 16608eddac3fSPeter Zijlstra } 16618eddac3fSPeter Zijlstra } 16628eddac3fSPeter Zijlstra 16638eddac3fSPeter Zijlstra #else 16648eddac3fSPeter Zijlstra 16658eddac3fSPeter Zijlstra static inline int 16668eddac3fSPeter Zijlstra check_prev_add_irq(struct task_struct *curr, struct held_lock *prev, 16678eddac3fSPeter Zijlstra struct held_lock *next) 16688eddac3fSPeter Zijlstra { 16698eddac3fSPeter Zijlstra return 1; 16708eddac3fSPeter Zijlstra } 16718eddac3fSPeter Zijlstra 16728eddac3fSPeter Zijlstra static inline void inc_chains(void) 16738eddac3fSPeter Zijlstra { 16748eddac3fSPeter Zijlstra nr_process_chains++; 16758eddac3fSPeter Zijlstra } 16768eddac3fSPeter Zijlstra 16778eddac3fSPeter Zijlstra #endif 16788eddac3fSPeter Zijlstra 16798eddac3fSPeter Zijlstra static void 16808eddac3fSPeter Zijlstra print_deadlock_scenario(struct held_lock *nxt, 16818eddac3fSPeter Zijlstra struct held_lock *prv) 16828eddac3fSPeter Zijlstra { 16838eddac3fSPeter Zijlstra struct lock_class *next = hlock_class(nxt); 16848eddac3fSPeter Zijlstra struct lock_class *prev = hlock_class(prv); 16858eddac3fSPeter Zijlstra 16868eddac3fSPeter Zijlstra printk(" Possible unsafe locking scenario:\n\n"); 16878eddac3fSPeter Zijlstra printk(" CPU0\n"); 16888eddac3fSPeter Zijlstra printk(" ----\n"); 16898eddac3fSPeter Zijlstra printk(" lock("); 16908eddac3fSPeter Zijlstra __print_lock_name(prev); 16918eddac3fSPeter Zijlstra printk(");\n"); 16928eddac3fSPeter Zijlstra printk(" lock("); 16938eddac3fSPeter Zijlstra __print_lock_name(next); 16948eddac3fSPeter Zijlstra printk(");\n"); 16958eddac3fSPeter Zijlstra printk("\n *** DEADLOCK ***\n\n"); 16968eddac3fSPeter Zijlstra printk(" May be due to missing lock nesting notation\n\n"); 16978eddac3fSPeter Zijlstra } 16988eddac3fSPeter Zijlstra 16998eddac3fSPeter Zijlstra static int 17008eddac3fSPeter Zijlstra print_deadlock_bug(struct task_struct *curr, struct held_lock *prev, 17018eddac3fSPeter Zijlstra struct held_lock *next) 17028eddac3fSPeter Zijlstra { 17038eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock() || debug_locks_silent) 17048eddac3fSPeter Zijlstra return 0; 17058eddac3fSPeter Zijlstra 17068eddac3fSPeter Zijlstra printk("\n"); 17078eddac3fSPeter Zijlstra printk("=============================================\n"); 17088eddac3fSPeter Zijlstra printk("[ INFO: possible recursive locking detected ]\n"); 17098eddac3fSPeter Zijlstra print_kernel_ident(); 17108eddac3fSPeter Zijlstra printk("---------------------------------------------\n"); 17118eddac3fSPeter Zijlstra printk("%s/%d is trying to acquire lock:\n", 17128eddac3fSPeter Zijlstra curr->comm, task_pid_nr(curr)); 17138eddac3fSPeter Zijlstra print_lock(next); 17148eddac3fSPeter Zijlstra printk("\nbut task is already holding lock:\n"); 17158eddac3fSPeter Zijlstra print_lock(prev); 17168eddac3fSPeter Zijlstra 17178eddac3fSPeter Zijlstra printk("\nother info that might help us debug this:\n"); 17188eddac3fSPeter Zijlstra print_deadlock_scenario(next, prev); 17198eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 17208eddac3fSPeter Zijlstra 17218eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 17228eddac3fSPeter Zijlstra dump_stack(); 17238eddac3fSPeter Zijlstra 17248eddac3fSPeter Zijlstra return 0; 17258eddac3fSPeter Zijlstra } 17268eddac3fSPeter Zijlstra 17278eddac3fSPeter Zijlstra /* 17288eddac3fSPeter Zijlstra * Check whether we are holding such a class already. 17298eddac3fSPeter Zijlstra * 17308eddac3fSPeter Zijlstra * (Note that this has to be done separately, because the graph cannot 17318eddac3fSPeter Zijlstra * detect such classes of deadlocks.) 17328eddac3fSPeter Zijlstra * 17338eddac3fSPeter Zijlstra * Returns: 0 on deadlock detected, 1 on OK, 2 on recursive read 17348eddac3fSPeter Zijlstra */ 17358eddac3fSPeter Zijlstra static int 17368eddac3fSPeter Zijlstra check_deadlock(struct task_struct *curr, struct held_lock *next, 17378eddac3fSPeter Zijlstra struct lockdep_map *next_instance, int read) 17388eddac3fSPeter Zijlstra { 17398eddac3fSPeter Zijlstra struct held_lock *prev; 17408eddac3fSPeter Zijlstra struct held_lock *nest = NULL; 17418eddac3fSPeter Zijlstra int i; 17428eddac3fSPeter Zijlstra 17438eddac3fSPeter Zijlstra for (i = 0; i < curr->lockdep_depth; i++) { 17448eddac3fSPeter Zijlstra prev = curr->held_locks + i; 17458eddac3fSPeter Zijlstra 17468eddac3fSPeter Zijlstra if (prev->instance == next->nest_lock) 17478eddac3fSPeter Zijlstra nest = prev; 17488eddac3fSPeter Zijlstra 17498eddac3fSPeter Zijlstra if (hlock_class(prev) != hlock_class(next)) 17508eddac3fSPeter Zijlstra continue; 17518eddac3fSPeter Zijlstra 17528eddac3fSPeter Zijlstra /* 17538eddac3fSPeter Zijlstra * Allow read-after-read recursion of the same 17548eddac3fSPeter Zijlstra * lock class (i.e. read_lock(lock)+read_lock(lock)): 17558eddac3fSPeter Zijlstra */ 17568eddac3fSPeter Zijlstra if ((read == 2) && prev->read) 17578eddac3fSPeter Zijlstra return 2; 17588eddac3fSPeter Zijlstra 17598eddac3fSPeter Zijlstra /* 17608eddac3fSPeter Zijlstra * We're holding the nest_lock, which serializes this lock's 17618eddac3fSPeter Zijlstra * nesting behaviour. 17628eddac3fSPeter Zijlstra */ 17638eddac3fSPeter Zijlstra if (nest) 17648eddac3fSPeter Zijlstra return 2; 17658eddac3fSPeter Zijlstra 17668eddac3fSPeter Zijlstra return print_deadlock_bug(curr, prev, next); 17678eddac3fSPeter Zijlstra } 17688eddac3fSPeter Zijlstra return 1; 17698eddac3fSPeter Zijlstra } 17708eddac3fSPeter Zijlstra 17718eddac3fSPeter Zijlstra /* 17728eddac3fSPeter Zijlstra * There was a chain-cache miss, and we are about to add a new dependency 17738eddac3fSPeter Zijlstra * to a previous lock. We recursively validate the following rules: 17748eddac3fSPeter Zijlstra * 17758eddac3fSPeter Zijlstra * - would the adding of the <prev> -> <next> dependency create a 17768eddac3fSPeter Zijlstra * circular dependency in the graph? [== circular deadlock] 17778eddac3fSPeter Zijlstra * 17788eddac3fSPeter Zijlstra * - does the new prev->next dependency connect any hardirq-safe lock 17798eddac3fSPeter Zijlstra * (in the full backwards-subgraph starting at <prev>) with any 17808eddac3fSPeter Zijlstra * hardirq-unsafe lock (in the full forwards-subgraph starting at 17818eddac3fSPeter Zijlstra * <next>)? [== illegal lock inversion with hardirq contexts] 17828eddac3fSPeter Zijlstra * 17838eddac3fSPeter Zijlstra * - does the new prev->next dependency connect any softirq-safe lock 17848eddac3fSPeter Zijlstra * (in the full backwards-subgraph starting at <prev>) with any 17858eddac3fSPeter Zijlstra * softirq-unsafe lock (in the full forwards-subgraph starting at 17868eddac3fSPeter Zijlstra * <next>)? [== illegal lock inversion with softirq contexts] 17878eddac3fSPeter Zijlstra * 17888eddac3fSPeter Zijlstra * any of these scenarios could lead to a deadlock. 17898eddac3fSPeter Zijlstra * 17908eddac3fSPeter Zijlstra * Then if all the validations pass, we add the forwards and backwards 17918eddac3fSPeter Zijlstra * dependency. 17928eddac3fSPeter Zijlstra */ 17938eddac3fSPeter Zijlstra static int 17948eddac3fSPeter Zijlstra check_prev_add(struct task_struct *curr, struct held_lock *prev, 17958a5fd564SDmitry Vyukov struct held_lock *next, int distance, int *stack_saved) 17968eddac3fSPeter Zijlstra { 17978eddac3fSPeter Zijlstra struct lock_list *entry; 17988eddac3fSPeter Zijlstra int ret; 17998eddac3fSPeter Zijlstra struct lock_list this; 18008eddac3fSPeter Zijlstra struct lock_list *uninitialized_var(target_entry); 18018eddac3fSPeter Zijlstra /* 18028eddac3fSPeter Zijlstra * Static variable, serialized by the graph_lock(). 18038eddac3fSPeter Zijlstra * 18048eddac3fSPeter Zijlstra * We use this static variable to save the stack trace in case 18058eddac3fSPeter Zijlstra * we call into this function multiple times due to encountering 18068eddac3fSPeter Zijlstra * trylocks in the held lock stack. 18078eddac3fSPeter Zijlstra */ 18088eddac3fSPeter Zijlstra static struct stack_trace trace; 18098eddac3fSPeter Zijlstra 18108eddac3fSPeter Zijlstra /* 18118eddac3fSPeter Zijlstra * Prove that the new <prev> -> <next> dependency would not 18128eddac3fSPeter Zijlstra * create a circular dependency in the graph. (We do this by 18138eddac3fSPeter Zijlstra * forward-recursing into the graph starting at <next>, and 18148eddac3fSPeter Zijlstra * checking whether we can reach <prev>.) 18158eddac3fSPeter Zijlstra * 18168eddac3fSPeter Zijlstra * We are using global variables to control the recursion, to 18178eddac3fSPeter Zijlstra * keep the stackframe size of the recursive functions low: 18188eddac3fSPeter Zijlstra */ 18198eddac3fSPeter Zijlstra this.class = hlock_class(next); 18208eddac3fSPeter Zijlstra this.parent = NULL; 18218eddac3fSPeter Zijlstra ret = check_noncircular(&this, hlock_class(prev), &target_entry); 18228eddac3fSPeter Zijlstra if (unlikely(!ret)) 18238eddac3fSPeter Zijlstra return print_circular_bug(&this, target_entry, next, prev); 18248eddac3fSPeter Zijlstra else if (unlikely(ret < 0)) 18258eddac3fSPeter Zijlstra return print_bfs_bug(ret); 18268eddac3fSPeter Zijlstra 18278eddac3fSPeter Zijlstra if (!check_prev_add_irq(curr, prev, next)) 18288eddac3fSPeter Zijlstra return 0; 18298eddac3fSPeter Zijlstra 18308eddac3fSPeter Zijlstra /* 18318eddac3fSPeter Zijlstra * For recursive read-locks we do all the dependency checks, 18328eddac3fSPeter Zijlstra * but we dont store read-triggered dependencies (only 18338eddac3fSPeter Zijlstra * write-triggered dependencies). This ensures that only the 18348eddac3fSPeter Zijlstra * write-side dependencies matter, and that if for example a 18358eddac3fSPeter Zijlstra * write-lock never takes any other locks, then the reads are 18368eddac3fSPeter Zijlstra * equivalent to a NOP. 18378eddac3fSPeter Zijlstra */ 18388eddac3fSPeter Zijlstra if (next->read == 2 || prev->read == 2) 18398eddac3fSPeter Zijlstra return 1; 18408eddac3fSPeter Zijlstra /* 18418eddac3fSPeter Zijlstra * Is the <prev> -> <next> dependency already present? 18428eddac3fSPeter Zijlstra * 18438eddac3fSPeter Zijlstra * (this may occur even though this is a new chain: consider 18448eddac3fSPeter Zijlstra * e.g. the L1 -> L2 -> L3 -> L4 and the L5 -> L1 -> L2 -> L3 18458eddac3fSPeter Zijlstra * chains - the second one will be new, but L1 already has 18468eddac3fSPeter Zijlstra * L2 added to its dependency list, due to the first chain.) 18478eddac3fSPeter Zijlstra */ 18488eddac3fSPeter Zijlstra list_for_each_entry(entry, &hlock_class(prev)->locks_after, entry) { 18498eddac3fSPeter Zijlstra if (entry->class == hlock_class(next)) { 18508eddac3fSPeter Zijlstra if (distance == 1) 18518eddac3fSPeter Zijlstra entry->distance = 1; 18528eddac3fSPeter Zijlstra return 2; 18538eddac3fSPeter Zijlstra } 18548eddac3fSPeter Zijlstra } 18558eddac3fSPeter Zijlstra 18568a5fd564SDmitry Vyukov if (!*stack_saved) { 18578a5fd564SDmitry Vyukov if (!save_trace(&trace)) 18588eddac3fSPeter Zijlstra return 0; 18598a5fd564SDmitry Vyukov *stack_saved = 1; 18608a5fd564SDmitry Vyukov } 18618eddac3fSPeter Zijlstra 18628eddac3fSPeter Zijlstra /* 18638eddac3fSPeter Zijlstra * Ok, all validations passed, add the new lock 18648eddac3fSPeter Zijlstra * to the previous lock's dependency list: 18658eddac3fSPeter Zijlstra */ 18668eddac3fSPeter Zijlstra ret = add_lock_to_list(hlock_class(prev), hlock_class(next), 18678eddac3fSPeter Zijlstra &hlock_class(prev)->locks_after, 18688eddac3fSPeter Zijlstra next->acquire_ip, distance, &trace); 18698eddac3fSPeter Zijlstra 18708eddac3fSPeter Zijlstra if (!ret) 18718eddac3fSPeter Zijlstra return 0; 18728eddac3fSPeter Zijlstra 18738eddac3fSPeter Zijlstra ret = add_lock_to_list(hlock_class(next), hlock_class(prev), 18748eddac3fSPeter Zijlstra &hlock_class(next)->locks_before, 18758eddac3fSPeter Zijlstra next->acquire_ip, distance, &trace); 18768eddac3fSPeter Zijlstra if (!ret) 18778eddac3fSPeter Zijlstra return 0; 18788eddac3fSPeter Zijlstra 18798eddac3fSPeter Zijlstra /* 18808eddac3fSPeter Zijlstra * Debugging printouts: 18818eddac3fSPeter Zijlstra */ 18828eddac3fSPeter Zijlstra if (verbose(hlock_class(prev)) || verbose(hlock_class(next))) { 18838a5fd564SDmitry Vyukov /* We drop graph lock, so another thread can overwrite trace. */ 18848a5fd564SDmitry Vyukov *stack_saved = 0; 18858eddac3fSPeter Zijlstra graph_unlock(); 18868eddac3fSPeter Zijlstra printk("\n new dependency: "); 18878eddac3fSPeter Zijlstra print_lock_name(hlock_class(prev)); 18888eddac3fSPeter Zijlstra printk(" => "); 18898eddac3fSPeter Zijlstra print_lock_name(hlock_class(next)); 18908eddac3fSPeter Zijlstra printk("\n"); 18918eddac3fSPeter Zijlstra dump_stack(); 18928eddac3fSPeter Zijlstra return graph_lock(); 18938eddac3fSPeter Zijlstra } 18948eddac3fSPeter Zijlstra return 1; 18958eddac3fSPeter Zijlstra } 18968eddac3fSPeter Zijlstra 18978eddac3fSPeter Zijlstra /* 18988eddac3fSPeter Zijlstra * Add the dependency to all directly-previous locks that are 'relevant'. 18998eddac3fSPeter Zijlstra * The ones that are relevant are (in increasing distance from curr): 19008eddac3fSPeter Zijlstra * all consecutive trylock entries and the final non-trylock entry - or 19018eddac3fSPeter Zijlstra * the end of this context's lock-chain - whichever comes first. 19028eddac3fSPeter Zijlstra */ 19038eddac3fSPeter Zijlstra static int 19048eddac3fSPeter Zijlstra check_prevs_add(struct task_struct *curr, struct held_lock *next) 19058eddac3fSPeter Zijlstra { 19068eddac3fSPeter Zijlstra int depth = curr->lockdep_depth; 19078a5fd564SDmitry Vyukov int stack_saved = 0; 19088eddac3fSPeter Zijlstra struct held_lock *hlock; 19098eddac3fSPeter Zijlstra 19108eddac3fSPeter Zijlstra /* 19118eddac3fSPeter Zijlstra * Debugging checks. 19128eddac3fSPeter Zijlstra * 19138eddac3fSPeter Zijlstra * Depth must not be zero for a non-head lock: 19148eddac3fSPeter Zijlstra */ 19158eddac3fSPeter Zijlstra if (!depth) 19168eddac3fSPeter Zijlstra goto out_bug; 19178eddac3fSPeter Zijlstra /* 19188eddac3fSPeter Zijlstra * At least two relevant locks must exist for this 19198eddac3fSPeter Zijlstra * to be a head: 19208eddac3fSPeter Zijlstra */ 19218eddac3fSPeter Zijlstra if (curr->held_locks[depth].irq_context != 19228eddac3fSPeter Zijlstra curr->held_locks[depth-1].irq_context) 19238eddac3fSPeter Zijlstra goto out_bug; 19248eddac3fSPeter Zijlstra 19258eddac3fSPeter Zijlstra for (;;) { 19268eddac3fSPeter Zijlstra int distance = curr->lockdep_depth - depth + 1; 19278eddac3fSPeter Zijlstra hlock = curr->held_locks + depth - 1; 19288eddac3fSPeter Zijlstra /* 19298eddac3fSPeter Zijlstra * Only non-recursive-read entries get new dependencies 19308eddac3fSPeter Zijlstra * added: 19318eddac3fSPeter Zijlstra */ 19321b5ff816SOleg Nesterov if (hlock->read != 2 && hlock->check) { 19338eddac3fSPeter Zijlstra if (!check_prev_add(curr, hlock, next, 19348a5fd564SDmitry Vyukov distance, &stack_saved)) 19358eddac3fSPeter Zijlstra return 0; 19368eddac3fSPeter Zijlstra /* 19378eddac3fSPeter Zijlstra * Stop after the first non-trylock entry, 19388eddac3fSPeter Zijlstra * as non-trylock entries have added their 19398eddac3fSPeter Zijlstra * own direct dependencies already, so this 19408eddac3fSPeter Zijlstra * lock is connected to them indirectly: 19418eddac3fSPeter Zijlstra */ 19428eddac3fSPeter Zijlstra if (!hlock->trylock) 19438eddac3fSPeter Zijlstra break; 19448eddac3fSPeter Zijlstra } 19458eddac3fSPeter Zijlstra depth--; 19468eddac3fSPeter Zijlstra /* 19478eddac3fSPeter Zijlstra * End of lock-stack? 19488eddac3fSPeter Zijlstra */ 19498eddac3fSPeter Zijlstra if (!depth) 19508eddac3fSPeter Zijlstra break; 19518eddac3fSPeter Zijlstra /* 19528eddac3fSPeter Zijlstra * Stop the search if we cross into another context: 19538eddac3fSPeter Zijlstra */ 19548eddac3fSPeter Zijlstra if (curr->held_locks[depth].irq_context != 19558eddac3fSPeter Zijlstra curr->held_locks[depth-1].irq_context) 19568eddac3fSPeter Zijlstra break; 19578eddac3fSPeter Zijlstra } 19588eddac3fSPeter Zijlstra return 1; 19598eddac3fSPeter Zijlstra out_bug: 19608eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock()) 19618eddac3fSPeter Zijlstra return 0; 19628eddac3fSPeter Zijlstra 19638eddac3fSPeter Zijlstra /* 19648eddac3fSPeter Zijlstra * Clearly we all shouldn't be here, but since we made it we 19658eddac3fSPeter Zijlstra * can reliable say we messed up our state. See the above two 19668eddac3fSPeter Zijlstra * gotos for reasons why we could possibly end up here. 19678eddac3fSPeter Zijlstra */ 19688eddac3fSPeter Zijlstra WARN_ON(1); 19698eddac3fSPeter Zijlstra 19708eddac3fSPeter Zijlstra return 0; 19718eddac3fSPeter Zijlstra } 19728eddac3fSPeter Zijlstra 19738eddac3fSPeter Zijlstra unsigned long nr_lock_chains; 19748eddac3fSPeter Zijlstra struct lock_chain lock_chains[MAX_LOCKDEP_CHAINS]; 19758eddac3fSPeter Zijlstra int nr_chain_hlocks; 19768eddac3fSPeter Zijlstra static u16 chain_hlocks[MAX_LOCKDEP_CHAIN_HLOCKS]; 19778eddac3fSPeter Zijlstra 19788eddac3fSPeter Zijlstra struct lock_class *lock_chain_get_class(struct lock_chain *chain, int i) 19798eddac3fSPeter Zijlstra { 19808eddac3fSPeter Zijlstra return lock_classes + chain_hlocks[chain->base + i]; 19818eddac3fSPeter Zijlstra } 19828eddac3fSPeter Zijlstra 19838eddac3fSPeter Zijlstra /* 19849e4e7554SIngo Molnar * Returns the index of the first held_lock of the current chain 19859e4e7554SIngo Molnar */ 19869e4e7554SIngo Molnar static inline int get_first_held_lock(struct task_struct *curr, 19879e4e7554SIngo Molnar struct held_lock *hlock) 19889e4e7554SIngo Molnar { 19899e4e7554SIngo Molnar int i; 19909e4e7554SIngo Molnar struct held_lock *hlock_curr; 19919e4e7554SIngo Molnar 19929e4e7554SIngo Molnar for (i = curr->lockdep_depth - 1; i >= 0; i--) { 19939e4e7554SIngo Molnar hlock_curr = curr->held_locks + i; 19949e4e7554SIngo Molnar if (hlock_curr->irq_context != hlock->irq_context) 19959e4e7554SIngo Molnar break; 19969e4e7554SIngo Molnar 19979e4e7554SIngo Molnar } 19989e4e7554SIngo Molnar 19999e4e7554SIngo Molnar return ++i; 20009e4e7554SIngo Molnar } 20019e4e7554SIngo Molnar 20025c8a010cSBorislav Petkov #ifdef CONFIG_DEBUG_LOCKDEP 20039e4e7554SIngo Molnar /* 200439e2e173SAlfredo Alvarez Fernandez * Returns the next chain_key iteration 200539e2e173SAlfredo Alvarez Fernandez */ 200639e2e173SAlfredo Alvarez Fernandez static u64 print_chain_key_iteration(int class_idx, u64 chain_key) 200739e2e173SAlfredo Alvarez Fernandez { 200839e2e173SAlfredo Alvarez Fernandez u64 new_chain_key = iterate_chain_key(chain_key, class_idx); 200939e2e173SAlfredo Alvarez Fernandez 201039e2e173SAlfredo Alvarez Fernandez printk(" class_idx:%d -> chain_key:%016Lx", 201139e2e173SAlfredo Alvarez Fernandez class_idx, 201239e2e173SAlfredo Alvarez Fernandez (unsigned long long)new_chain_key); 201339e2e173SAlfredo Alvarez Fernandez return new_chain_key; 201439e2e173SAlfredo Alvarez Fernandez } 201539e2e173SAlfredo Alvarez Fernandez 201639e2e173SAlfredo Alvarez Fernandez static void 201739e2e173SAlfredo Alvarez Fernandez print_chain_keys_held_locks(struct task_struct *curr, struct held_lock *hlock_next) 201839e2e173SAlfredo Alvarez Fernandez { 201939e2e173SAlfredo Alvarez Fernandez struct held_lock *hlock; 202039e2e173SAlfredo Alvarez Fernandez u64 chain_key = 0; 202139e2e173SAlfredo Alvarez Fernandez int depth = curr->lockdep_depth; 202239e2e173SAlfredo Alvarez Fernandez int i; 202339e2e173SAlfredo Alvarez Fernandez 202439e2e173SAlfredo Alvarez Fernandez printk("depth: %u\n", depth + 1); 202539e2e173SAlfredo Alvarez Fernandez for (i = get_first_held_lock(curr, hlock_next); i < depth; i++) { 202639e2e173SAlfredo Alvarez Fernandez hlock = curr->held_locks + i; 202739e2e173SAlfredo Alvarez Fernandez chain_key = print_chain_key_iteration(hlock->class_idx, chain_key); 202839e2e173SAlfredo Alvarez Fernandez 202939e2e173SAlfredo Alvarez Fernandez print_lock(hlock); 203039e2e173SAlfredo Alvarez Fernandez } 203139e2e173SAlfredo Alvarez Fernandez 203239e2e173SAlfredo Alvarez Fernandez print_chain_key_iteration(hlock_next->class_idx, chain_key); 203339e2e173SAlfredo Alvarez Fernandez print_lock(hlock_next); 203439e2e173SAlfredo Alvarez Fernandez } 203539e2e173SAlfredo Alvarez Fernandez 203639e2e173SAlfredo Alvarez Fernandez static void print_chain_keys_chain(struct lock_chain *chain) 203739e2e173SAlfredo Alvarez Fernandez { 203839e2e173SAlfredo Alvarez Fernandez int i; 203939e2e173SAlfredo Alvarez Fernandez u64 chain_key = 0; 204039e2e173SAlfredo Alvarez Fernandez int class_id; 204139e2e173SAlfredo Alvarez Fernandez 204239e2e173SAlfredo Alvarez Fernandez printk("depth: %u\n", chain->depth); 204339e2e173SAlfredo Alvarez Fernandez for (i = 0; i < chain->depth; i++) { 204439e2e173SAlfredo Alvarez Fernandez class_id = chain_hlocks[chain->base + i]; 204539e2e173SAlfredo Alvarez Fernandez chain_key = print_chain_key_iteration(class_id + 1, chain_key); 204639e2e173SAlfredo Alvarez Fernandez 204739e2e173SAlfredo Alvarez Fernandez print_lock_name(lock_classes + class_id); 204839e2e173SAlfredo Alvarez Fernandez printk("\n"); 204939e2e173SAlfredo Alvarez Fernandez } 205039e2e173SAlfredo Alvarez Fernandez } 205139e2e173SAlfredo Alvarez Fernandez 205239e2e173SAlfredo Alvarez Fernandez static void print_collision(struct task_struct *curr, 205339e2e173SAlfredo Alvarez Fernandez struct held_lock *hlock_next, 205439e2e173SAlfredo Alvarez Fernandez struct lock_chain *chain) 205539e2e173SAlfredo Alvarez Fernandez { 205639e2e173SAlfredo Alvarez Fernandez printk("\n"); 205739e2e173SAlfredo Alvarez Fernandez printk("======================\n"); 205839e2e173SAlfredo Alvarez Fernandez printk("[chain_key collision ]\n"); 205939e2e173SAlfredo Alvarez Fernandez print_kernel_ident(); 206039e2e173SAlfredo Alvarez Fernandez printk("----------------------\n"); 206139e2e173SAlfredo Alvarez Fernandez printk("%s/%d: ", current->comm, task_pid_nr(current)); 206239e2e173SAlfredo Alvarez Fernandez printk("Hash chain already cached but the contents don't match!\n"); 206339e2e173SAlfredo Alvarez Fernandez 206439e2e173SAlfredo Alvarez Fernandez printk("Held locks:"); 206539e2e173SAlfredo Alvarez Fernandez print_chain_keys_held_locks(curr, hlock_next); 206639e2e173SAlfredo Alvarez Fernandez 206739e2e173SAlfredo Alvarez Fernandez printk("Locks in cached chain:"); 206839e2e173SAlfredo Alvarez Fernandez print_chain_keys_chain(chain); 206939e2e173SAlfredo Alvarez Fernandez 207039e2e173SAlfredo Alvarez Fernandez printk("\nstack backtrace:\n"); 207139e2e173SAlfredo Alvarez Fernandez dump_stack(); 207239e2e173SAlfredo Alvarez Fernandez } 20735c8a010cSBorislav Petkov #endif 207439e2e173SAlfredo Alvarez Fernandez 207539e2e173SAlfredo Alvarez Fernandez /* 20769e4e7554SIngo Molnar * Checks whether the chain and the current held locks are consistent 20779e4e7554SIngo Molnar * in depth and also in content. If they are not it most likely means 20789e4e7554SIngo Molnar * that there was a collision during the calculation of the chain_key. 20799e4e7554SIngo Molnar * Returns: 0 not passed, 1 passed 20809e4e7554SIngo Molnar */ 20819e4e7554SIngo Molnar static int check_no_collision(struct task_struct *curr, 20829e4e7554SIngo Molnar struct held_lock *hlock, 20839e4e7554SIngo Molnar struct lock_chain *chain) 20849e4e7554SIngo Molnar { 20859e4e7554SIngo Molnar #ifdef CONFIG_DEBUG_LOCKDEP 20869e4e7554SIngo Molnar int i, j, id; 20879e4e7554SIngo Molnar 20889e4e7554SIngo Molnar i = get_first_held_lock(curr, hlock); 20899e4e7554SIngo Molnar 209039e2e173SAlfredo Alvarez Fernandez if (DEBUG_LOCKS_WARN_ON(chain->depth != curr->lockdep_depth - (i - 1))) { 209139e2e173SAlfredo Alvarez Fernandez print_collision(curr, hlock, chain); 20929e4e7554SIngo Molnar return 0; 209339e2e173SAlfredo Alvarez Fernandez } 20949e4e7554SIngo Molnar 20959e4e7554SIngo Molnar for (j = 0; j < chain->depth - 1; j++, i++) { 20969e4e7554SIngo Molnar id = curr->held_locks[i].class_idx - 1; 20979e4e7554SIngo Molnar 209839e2e173SAlfredo Alvarez Fernandez if (DEBUG_LOCKS_WARN_ON(chain_hlocks[chain->base + j] != id)) { 209939e2e173SAlfredo Alvarez Fernandez print_collision(curr, hlock, chain); 21009e4e7554SIngo Molnar return 0; 21019e4e7554SIngo Molnar } 210239e2e173SAlfredo Alvarez Fernandez } 21039e4e7554SIngo Molnar #endif 21049e4e7554SIngo Molnar return 1; 21059e4e7554SIngo Molnar } 21069e4e7554SIngo Molnar 21079e4e7554SIngo Molnar /* 21088eddac3fSPeter Zijlstra * Look up a dependency chain. If the key is not present yet then 21098eddac3fSPeter Zijlstra * add it and return 1 - in this case the new dependency chain is 21108eddac3fSPeter Zijlstra * validated. If the key is already hashed, return 0. 21118eddac3fSPeter Zijlstra * (On return with 1 graph_lock is held.) 21128eddac3fSPeter Zijlstra */ 21138eddac3fSPeter Zijlstra static inline int lookup_chain_cache(struct task_struct *curr, 21148eddac3fSPeter Zijlstra struct held_lock *hlock, 21158eddac3fSPeter Zijlstra u64 chain_key) 21168eddac3fSPeter Zijlstra { 21178eddac3fSPeter Zijlstra struct lock_class *class = hlock_class(hlock); 2118a63f38ccSAndrew Morton struct hlist_head *hash_head = chainhashentry(chain_key); 21198eddac3fSPeter Zijlstra struct lock_chain *chain; 21208eddac3fSPeter Zijlstra int i, j; 21218eddac3fSPeter Zijlstra 21228eddac3fSPeter Zijlstra /* 21238eddac3fSPeter Zijlstra * We might need to take the graph lock, ensure we've got IRQs 21248eddac3fSPeter Zijlstra * disabled to make this an IRQ-safe lock.. for recursion reasons 21258eddac3fSPeter Zijlstra * lockdep won't complain about its own locking errors. 21268eddac3fSPeter Zijlstra */ 21278eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!irqs_disabled())) 21288eddac3fSPeter Zijlstra return 0; 21298eddac3fSPeter Zijlstra /* 21308eddac3fSPeter Zijlstra * We can walk it lock-free, because entries only get added 21318eddac3fSPeter Zijlstra * to the hash: 21328eddac3fSPeter Zijlstra */ 2133a63f38ccSAndrew Morton hlist_for_each_entry_rcu(chain, hash_head, entry) { 21348eddac3fSPeter Zijlstra if (chain->chain_key == chain_key) { 21358eddac3fSPeter Zijlstra cache_hit: 21368eddac3fSPeter Zijlstra debug_atomic_inc(chain_lookup_hits); 21379e4e7554SIngo Molnar if (!check_no_collision(curr, hlock, chain)) 21389e4e7554SIngo Molnar return 0; 21399e4e7554SIngo Molnar 21408eddac3fSPeter Zijlstra if (very_verbose(class)) 21418eddac3fSPeter Zijlstra printk("\nhash chain already cached, key: " 21428eddac3fSPeter Zijlstra "%016Lx tail class: [%p] %s\n", 21438eddac3fSPeter Zijlstra (unsigned long long)chain_key, 21448eddac3fSPeter Zijlstra class->key, class->name); 21458eddac3fSPeter Zijlstra return 0; 21468eddac3fSPeter Zijlstra } 21478eddac3fSPeter Zijlstra } 21488eddac3fSPeter Zijlstra if (very_verbose(class)) 21498eddac3fSPeter Zijlstra printk("\nnew hash chain, key: %016Lx tail class: [%p] %s\n", 21508eddac3fSPeter Zijlstra (unsigned long long)chain_key, class->key, class->name); 21518eddac3fSPeter Zijlstra /* 21528eddac3fSPeter Zijlstra * Allocate a new chain entry from the static array, and add 21538eddac3fSPeter Zijlstra * it to the hash: 21548eddac3fSPeter Zijlstra */ 21558eddac3fSPeter Zijlstra if (!graph_lock()) 21568eddac3fSPeter Zijlstra return 0; 21578eddac3fSPeter Zijlstra /* 21588eddac3fSPeter Zijlstra * We have to walk the chain again locked - to avoid duplicates: 21598eddac3fSPeter Zijlstra */ 2160a63f38ccSAndrew Morton hlist_for_each_entry(chain, hash_head, entry) { 21618eddac3fSPeter Zijlstra if (chain->chain_key == chain_key) { 21628eddac3fSPeter Zijlstra graph_unlock(); 21638eddac3fSPeter Zijlstra goto cache_hit; 21648eddac3fSPeter Zijlstra } 21658eddac3fSPeter Zijlstra } 21668eddac3fSPeter Zijlstra if (unlikely(nr_lock_chains >= MAX_LOCKDEP_CHAINS)) { 21678eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock()) 21688eddac3fSPeter Zijlstra return 0; 21698eddac3fSPeter Zijlstra 21708eddac3fSPeter Zijlstra print_lockdep_off("BUG: MAX_LOCKDEP_CHAINS too low!"); 21718eddac3fSPeter Zijlstra dump_stack(); 21728eddac3fSPeter Zijlstra return 0; 21738eddac3fSPeter Zijlstra } 21748eddac3fSPeter Zijlstra chain = lock_chains + nr_lock_chains++; 21758eddac3fSPeter Zijlstra chain->chain_key = chain_key; 21768eddac3fSPeter Zijlstra chain->irq_context = hlock->irq_context; 21779e4e7554SIngo Molnar i = get_first_held_lock(curr, hlock); 21788eddac3fSPeter Zijlstra chain->depth = curr->lockdep_depth + 1 - i; 21798eddac3fSPeter Zijlstra if (likely(nr_chain_hlocks + chain->depth <= MAX_LOCKDEP_CHAIN_HLOCKS)) { 21808eddac3fSPeter Zijlstra chain->base = nr_chain_hlocks; 21818eddac3fSPeter Zijlstra nr_chain_hlocks += chain->depth; 21828eddac3fSPeter Zijlstra for (j = 0; j < chain->depth - 1; j++, i++) { 21838eddac3fSPeter Zijlstra int lock_id = curr->held_locks[i].class_idx - 1; 21848eddac3fSPeter Zijlstra chain_hlocks[chain->base + j] = lock_id; 21858eddac3fSPeter Zijlstra } 21868eddac3fSPeter Zijlstra chain_hlocks[chain->base + j] = class - lock_classes; 21878eddac3fSPeter Zijlstra } 2188a63f38ccSAndrew Morton hlist_add_head_rcu(&chain->entry, hash_head); 21898eddac3fSPeter Zijlstra debug_atomic_inc(chain_lookup_misses); 21908eddac3fSPeter Zijlstra inc_chains(); 21918eddac3fSPeter Zijlstra 21928eddac3fSPeter Zijlstra return 1; 21938eddac3fSPeter Zijlstra } 21948eddac3fSPeter Zijlstra 21958eddac3fSPeter Zijlstra static int validate_chain(struct task_struct *curr, struct lockdep_map *lock, 21968eddac3fSPeter Zijlstra struct held_lock *hlock, int chain_head, u64 chain_key) 21978eddac3fSPeter Zijlstra { 21988eddac3fSPeter Zijlstra /* 21998eddac3fSPeter Zijlstra * Trylock needs to maintain the stack of held locks, but it 22008eddac3fSPeter Zijlstra * does not add new dependencies, because trylock can be done 22018eddac3fSPeter Zijlstra * in any order. 22028eddac3fSPeter Zijlstra * 22038eddac3fSPeter Zijlstra * We look up the chain_key and do the O(N^2) check and update of 22048eddac3fSPeter Zijlstra * the dependencies only if this is a new dependency chain. 22058eddac3fSPeter Zijlstra * (If lookup_chain_cache() returns with 1 it acquires 22068eddac3fSPeter Zijlstra * graph_lock for us) 22078eddac3fSPeter Zijlstra */ 2208fb9edbe9SOleg Nesterov if (!hlock->trylock && hlock->check && 22098eddac3fSPeter Zijlstra lookup_chain_cache(curr, hlock, chain_key)) { 22108eddac3fSPeter Zijlstra /* 22118eddac3fSPeter Zijlstra * Check whether last held lock: 22128eddac3fSPeter Zijlstra * 22138eddac3fSPeter Zijlstra * - is irq-safe, if this lock is irq-unsafe 22148eddac3fSPeter Zijlstra * - is softirq-safe, if this lock is hardirq-unsafe 22158eddac3fSPeter Zijlstra * 22168eddac3fSPeter Zijlstra * And check whether the new lock's dependency graph 22178eddac3fSPeter Zijlstra * could lead back to the previous lock. 22188eddac3fSPeter Zijlstra * 22198eddac3fSPeter Zijlstra * any of these scenarios could lead to a deadlock. If 22208eddac3fSPeter Zijlstra * All validations 22218eddac3fSPeter Zijlstra */ 22228eddac3fSPeter Zijlstra int ret = check_deadlock(curr, hlock, lock, hlock->read); 22238eddac3fSPeter Zijlstra 22248eddac3fSPeter Zijlstra if (!ret) 22258eddac3fSPeter Zijlstra return 0; 22268eddac3fSPeter Zijlstra /* 22278eddac3fSPeter Zijlstra * Mark recursive read, as we jump over it when 22288eddac3fSPeter Zijlstra * building dependencies (just like we jump over 22298eddac3fSPeter Zijlstra * trylock entries): 22308eddac3fSPeter Zijlstra */ 22318eddac3fSPeter Zijlstra if (ret == 2) 22328eddac3fSPeter Zijlstra hlock->read = 2; 22338eddac3fSPeter Zijlstra /* 22348eddac3fSPeter Zijlstra * Add dependency only if this lock is not the head 22358eddac3fSPeter Zijlstra * of the chain, and if it's not a secondary read-lock: 22368eddac3fSPeter Zijlstra */ 22378eddac3fSPeter Zijlstra if (!chain_head && ret != 2) 22388eddac3fSPeter Zijlstra if (!check_prevs_add(curr, hlock)) 22398eddac3fSPeter Zijlstra return 0; 22408eddac3fSPeter Zijlstra graph_unlock(); 22418eddac3fSPeter Zijlstra } else 22428eddac3fSPeter Zijlstra /* after lookup_chain_cache(): */ 22438eddac3fSPeter Zijlstra if (unlikely(!debug_locks)) 22448eddac3fSPeter Zijlstra return 0; 22458eddac3fSPeter Zijlstra 22468eddac3fSPeter Zijlstra return 1; 22478eddac3fSPeter Zijlstra } 22488eddac3fSPeter Zijlstra #else 22498eddac3fSPeter Zijlstra static inline int validate_chain(struct task_struct *curr, 22508eddac3fSPeter Zijlstra struct lockdep_map *lock, struct held_lock *hlock, 22518eddac3fSPeter Zijlstra int chain_head, u64 chain_key) 22528eddac3fSPeter Zijlstra { 22538eddac3fSPeter Zijlstra return 1; 22548eddac3fSPeter Zijlstra } 22558eddac3fSPeter Zijlstra #endif 22568eddac3fSPeter Zijlstra 22578eddac3fSPeter Zijlstra /* 22588eddac3fSPeter Zijlstra * We are building curr_chain_key incrementally, so double-check 22598eddac3fSPeter Zijlstra * it from scratch, to make sure that it's done correctly: 22608eddac3fSPeter Zijlstra */ 22618eddac3fSPeter Zijlstra static void check_chain_key(struct task_struct *curr) 22628eddac3fSPeter Zijlstra { 22638eddac3fSPeter Zijlstra #ifdef CONFIG_DEBUG_LOCKDEP 22648eddac3fSPeter Zijlstra struct held_lock *hlock, *prev_hlock = NULL; 22655f18ab5cSAlfredo Alvarez Fernandez unsigned int i; 22668eddac3fSPeter Zijlstra u64 chain_key = 0; 22678eddac3fSPeter Zijlstra 22688eddac3fSPeter Zijlstra for (i = 0; i < curr->lockdep_depth; i++) { 22698eddac3fSPeter Zijlstra hlock = curr->held_locks + i; 22708eddac3fSPeter Zijlstra if (chain_key != hlock->prev_chain_key) { 22718eddac3fSPeter Zijlstra debug_locks_off(); 22728eddac3fSPeter Zijlstra /* 22738eddac3fSPeter Zijlstra * We got mighty confused, our chain keys don't match 22748eddac3fSPeter Zijlstra * with what we expect, someone trample on our task state? 22758eddac3fSPeter Zijlstra */ 22768eddac3fSPeter Zijlstra WARN(1, "hm#1, depth: %u [%u], %016Lx != %016Lx\n", 22778eddac3fSPeter Zijlstra curr->lockdep_depth, i, 22788eddac3fSPeter Zijlstra (unsigned long long)chain_key, 22798eddac3fSPeter Zijlstra (unsigned long long)hlock->prev_chain_key); 22808eddac3fSPeter Zijlstra return; 22818eddac3fSPeter Zijlstra } 22828eddac3fSPeter Zijlstra /* 22838eddac3fSPeter Zijlstra * Whoops ran out of static storage again? 22848eddac3fSPeter Zijlstra */ 22855f18ab5cSAlfredo Alvarez Fernandez if (DEBUG_LOCKS_WARN_ON(hlock->class_idx > MAX_LOCKDEP_KEYS)) 22868eddac3fSPeter Zijlstra return; 22878eddac3fSPeter Zijlstra 22888eddac3fSPeter Zijlstra if (prev_hlock && (prev_hlock->irq_context != 22898eddac3fSPeter Zijlstra hlock->irq_context)) 22908eddac3fSPeter Zijlstra chain_key = 0; 22915f18ab5cSAlfredo Alvarez Fernandez chain_key = iterate_chain_key(chain_key, hlock->class_idx); 22928eddac3fSPeter Zijlstra prev_hlock = hlock; 22938eddac3fSPeter Zijlstra } 22948eddac3fSPeter Zijlstra if (chain_key != curr->curr_chain_key) { 22958eddac3fSPeter Zijlstra debug_locks_off(); 22968eddac3fSPeter Zijlstra /* 22978eddac3fSPeter Zijlstra * More smoking hash instead of calculating it, damn see these 22988eddac3fSPeter Zijlstra * numbers float.. I bet that a pink elephant stepped on my memory. 22998eddac3fSPeter Zijlstra */ 23008eddac3fSPeter Zijlstra WARN(1, "hm#2, depth: %u [%u], %016Lx != %016Lx\n", 23018eddac3fSPeter Zijlstra curr->lockdep_depth, i, 23028eddac3fSPeter Zijlstra (unsigned long long)chain_key, 23038eddac3fSPeter Zijlstra (unsigned long long)curr->curr_chain_key); 23048eddac3fSPeter Zijlstra } 23058eddac3fSPeter Zijlstra #endif 23068eddac3fSPeter Zijlstra } 23078eddac3fSPeter Zijlstra 23088eddac3fSPeter Zijlstra static void 23098eddac3fSPeter Zijlstra print_usage_bug_scenario(struct held_lock *lock) 23108eddac3fSPeter Zijlstra { 23118eddac3fSPeter Zijlstra struct lock_class *class = hlock_class(lock); 23128eddac3fSPeter Zijlstra 23138eddac3fSPeter Zijlstra printk(" Possible unsafe locking scenario:\n\n"); 23148eddac3fSPeter Zijlstra printk(" CPU0\n"); 23158eddac3fSPeter Zijlstra printk(" ----\n"); 23168eddac3fSPeter Zijlstra printk(" lock("); 23178eddac3fSPeter Zijlstra __print_lock_name(class); 23188eddac3fSPeter Zijlstra printk(");\n"); 23198eddac3fSPeter Zijlstra printk(" <Interrupt>\n"); 23208eddac3fSPeter Zijlstra printk(" lock("); 23218eddac3fSPeter Zijlstra __print_lock_name(class); 23228eddac3fSPeter Zijlstra printk(");\n"); 23238eddac3fSPeter Zijlstra printk("\n *** DEADLOCK ***\n\n"); 23248eddac3fSPeter Zijlstra } 23258eddac3fSPeter Zijlstra 23268eddac3fSPeter Zijlstra static int 23278eddac3fSPeter Zijlstra print_usage_bug(struct task_struct *curr, struct held_lock *this, 23288eddac3fSPeter Zijlstra enum lock_usage_bit prev_bit, enum lock_usage_bit new_bit) 23298eddac3fSPeter Zijlstra { 23308eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock() || debug_locks_silent) 23318eddac3fSPeter Zijlstra return 0; 23328eddac3fSPeter Zijlstra 23338eddac3fSPeter Zijlstra printk("\n"); 23348eddac3fSPeter Zijlstra printk("=================================\n"); 23358eddac3fSPeter Zijlstra printk("[ INFO: inconsistent lock state ]\n"); 23368eddac3fSPeter Zijlstra print_kernel_ident(); 23378eddac3fSPeter Zijlstra printk("---------------------------------\n"); 23388eddac3fSPeter Zijlstra 23398eddac3fSPeter Zijlstra printk("inconsistent {%s} -> {%s} usage.\n", 23408eddac3fSPeter Zijlstra usage_str[prev_bit], usage_str[new_bit]); 23418eddac3fSPeter Zijlstra 23428eddac3fSPeter Zijlstra printk("%s/%d [HC%u[%lu]:SC%u[%lu]:HE%u:SE%u] takes:\n", 23438eddac3fSPeter Zijlstra curr->comm, task_pid_nr(curr), 23448eddac3fSPeter Zijlstra trace_hardirq_context(curr), hardirq_count() >> HARDIRQ_SHIFT, 23458eddac3fSPeter Zijlstra trace_softirq_context(curr), softirq_count() >> SOFTIRQ_SHIFT, 23468eddac3fSPeter Zijlstra trace_hardirqs_enabled(curr), 23478eddac3fSPeter Zijlstra trace_softirqs_enabled(curr)); 23488eddac3fSPeter Zijlstra print_lock(this); 23498eddac3fSPeter Zijlstra 23508eddac3fSPeter Zijlstra printk("{%s} state was registered at:\n", usage_str[prev_bit]); 23518eddac3fSPeter Zijlstra print_stack_trace(hlock_class(this)->usage_traces + prev_bit, 1); 23528eddac3fSPeter Zijlstra 23538eddac3fSPeter Zijlstra print_irqtrace_events(curr); 23548eddac3fSPeter Zijlstra printk("\nother info that might help us debug this:\n"); 23558eddac3fSPeter Zijlstra print_usage_bug_scenario(this); 23568eddac3fSPeter Zijlstra 23578eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 23588eddac3fSPeter Zijlstra 23598eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 23608eddac3fSPeter Zijlstra dump_stack(); 23618eddac3fSPeter Zijlstra 23628eddac3fSPeter Zijlstra return 0; 23638eddac3fSPeter Zijlstra } 23648eddac3fSPeter Zijlstra 23658eddac3fSPeter Zijlstra /* 23668eddac3fSPeter Zijlstra * Print out an error if an invalid bit is set: 23678eddac3fSPeter Zijlstra */ 23688eddac3fSPeter Zijlstra static inline int 23698eddac3fSPeter Zijlstra valid_state(struct task_struct *curr, struct held_lock *this, 23708eddac3fSPeter Zijlstra enum lock_usage_bit new_bit, enum lock_usage_bit bad_bit) 23718eddac3fSPeter Zijlstra { 23728eddac3fSPeter Zijlstra if (unlikely(hlock_class(this)->usage_mask & (1 << bad_bit))) 23738eddac3fSPeter Zijlstra return print_usage_bug(curr, this, bad_bit, new_bit); 23748eddac3fSPeter Zijlstra return 1; 23758eddac3fSPeter Zijlstra } 23768eddac3fSPeter Zijlstra 23778eddac3fSPeter Zijlstra static int mark_lock(struct task_struct *curr, struct held_lock *this, 23788eddac3fSPeter Zijlstra enum lock_usage_bit new_bit); 23798eddac3fSPeter Zijlstra 23808eddac3fSPeter Zijlstra #if defined(CONFIG_TRACE_IRQFLAGS) && defined(CONFIG_PROVE_LOCKING) 23818eddac3fSPeter Zijlstra 23828eddac3fSPeter Zijlstra /* 23838eddac3fSPeter Zijlstra * print irq inversion bug: 23848eddac3fSPeter Zijlstra */ 23858eddac3fSPeter Zijlstra static int 23868eddac3fSPeter Zijlstra print_irq_inversion_bug(struct task_struct *curr, 23878eddac3fSPeter Zijlstra struct lock_list *root, struct lock_list *other, 23888eddac3fSPeter Zijlstra struct held_lock *this, int forwards, 23898eddac3fSPeter Zijlstra const char *irqclass) 23908eddac3fSPeter Zijlstra { 23918eddac3fSPeter Zijlstra struct lock_list *entry = other; 23928eddac3fSPeter Zijlstra struct lock_list *middle = NULL; 23938eddac3fSPeter Zijlstra int depth; 23948eddac3fSPeter Zijlstra 23958eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock() || debug_locks_silent) 23968eddac3fSPeter Zijlstra return 0; 23978eddac3fSPeter Zijlstra 23988eddac3fSPeter Zijlstra printk("\n"); 23998eddac3fSPeter Zijlstra printk("=========================================================\n"); 24008eddac3fSPeter Zijlstra printk("[ INFO: possible irq lock inversion dependency detected ]\n"); 24018eddac3fSPeter Zijlstra print_kernel_ident(); 24028eddac3fSPeter Zijlstra printk("---------------------------------------------------------\n"); 24038eddac3fSPeter Zijlstra printk("%s/%d just changed the state of lock:\n", 24048eddac3fSPeter Zijlstra curr->comm, task_pid_nr(curr)); 24058eddac3fSPeter Zijlstra print_lock(this); 24068eddac3fSPeter Zijlstra if (forwards) 24078eddac3fSPeter Zijlstra printk("but this lock took another, %s-unsafe lock in the past:\n", irqclass); 24088eddac3fSPeter Zijlstra else 24098eddac3fSPeter Zijlstra printk("but this lock was taken by another, %s-safe lock in the past:\n", irqclass); 24108eddac3fSPeter Zijlstra print_lock_name(other->class); 24118eddac3fSPeter Zijlstra printk("\n\nand interrupts could create inverse lock ordering between them.\n\n"); 24128eddac3fSPeter Zijlstra 24138eddac3fSPeter Zijlstra printk("\nother info that might help us debug this:\n"); 24148eddac3fSPeter Zijlstra 24158eddac3fSPeter Zijlstra /* Find a middle lock (if one exists) */ 24168eddac3fSPeter Zijlstra depth = get_lock_depth(other); 24178eddac3fSPeter Zijlstra do { 24188eddac3fSPeter Zijlstra if (depth == 0 && (entry != root)) { 24198eddac3fSPeter Zijlstra printk("lockdep:%s bad path found in chain graph\n", __func__); 24208eddac3fSPeter Zijlstra break; 24218eddac3fSPeter Zijlstra } 24228eddac3fSPeter Zijlstra middle = entry; 24238eddac3fSPeter Zijlstra entry = get_lock_parent(entry); 24248eddac3fSPeter Zijlstra depth--; 24258eddac3fSPeter Zijlstra } while (entry && entry != root && (depth >= 0)); 24268eddac3fSPeter Zijlstra if (forwards) 24278eddac3fSPeter Zijlstra print_irq_lock_scenario(root, other, 24288eddac3fSPeter Zijlstra middle ? middle->class : root->class, other->class); 24298eddac3fSPeter Zijlstra else 24308eddac3fSPeter Zijlstra print_irq_lock_scenario(other, root, 24318eddac3fSPeter Zijlstra middle ? middle->class : other->class, root->class); 24328eddac3fSPeter Zijlstra 24338eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 24348eddac3fSPeter Zijlstra 24358eddac3fSPeter Zijlstra printk("\nthe shortest dependencies between 2nd lock and 1st lock:\n"); 24368eddac3fSPeter Zijlstra if (!save_trace(&root->trace)) 24378eddac3fSPeter Zijlstra return 0; 24388eddac3fSPeter Zijlstra print_shortest_lock_dependencies(other, root); 24398eddac3fSPeter Zijlstra 24408eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 24418eddac3fSPeter Zijlstra dump_stack(); 24428eddac3fSPeter Zijlstra 24438eddac3fSPeter Zijlstra return 0; 24448eddac3fSPeter Zijlstra } 24458eddac3fSPeter Zijlstra 24468eddac3fSPeter Zijlstra /* 24478eddac3fSPeter Zijlstra * Prove that in the forwards-direction subgraph starting at <this> 24488eddac3fSPeter Zijlstra * there is no lock matching <mask>: 24498eddac3fSPeter Zijlstra */ 24508eddac3fSPeter Zijlstra static int 24518eddac3fSPeter Zijlstra check_usage_forwards(struct task_struct *curr, struct held_lock *this, 24528eddac3fSPeter Zijlstra enum lock_usage_bit bit, const char *irqclass) 24538eddac3fSPeter Zijlstra { 24548eddac3fSPeter Zijlstra int ret; 24558eddac3fSPeter Zijlstra struct lock_list root; 24568eddac3fSPeter Zijlstra struct lock_list *uninitialized_var(target_entry); 24578eddac3fSPeter Zijlstra 24588eddac3fSPeter Zijlstra root.parent = NULL; 24598eddac3fSPeter Zijlstra root.class = hlock_class(this); 24608eddac3fSPeter Zijlstra ret = find_usage_forwards(&root, bit, &target_entry); 24618eddac3fSPeter Zijlstra if (ret < 0) 24628eddac3fSPeter Zijlstra return print_bfs_bug(ret); 24638eddac3fSPeter Zijlstra if (ret == 1) 24648eddac3fSPeter Zijlstra return ret; 24658eddac3fSPeter Zijlstra 24668eddac3fSPeter Zijlstra return print_irq_inversion_bug(curr, &root, target_entry, 24678eddac3fSPeter Zijlstra this, 1, irqclass); 24688eddac3fSPeter Zijlstra } 24698eddac3fSPeter Zijlstra 24708eddac3fSPeter Zijlstra /* 24718eddac3fSPeter Zijlstra * Prove that in the backwards-direction subgraph starting at <this> 24728eddac3fSPeter Zijlstra * there is no lock matching <mask>: 24738eddac3fSPeter Zijlstra */ 24748eddac3fSPeter Zijlstra static int 24758eddac3fSPeter Zijlstra check_usage_backwards(struct task_struct *curr, struct held_lock *this, 24768eddac3fSPeter Zijlstra enum lock_usage_bit bit, const char *irqclass) 24778eddac3fSPeter Zijlstra { 24788eddac3fSPeter Zijlstra int ret; 24798eddac3fSPeter Zijlstra struct lock_list root; 24808eddac3fSPeter Zijlstra struct lock_list *uninitialized_var(target_entry); 24818eddac3fSPeter Zijlstra 24828eddac3fSPeter Zijlstra root.parent = NULL; 24838eddac3fSPeter Zijlstra root.class = hlock_class(this); 24848eddac3fSPeter Zijlstra ret = find_usage_backwards(&root, bit, &target_entry); 24858eddac3fSPeter Zijlstra if (ret < 0) 24868eddac3fSPeter Zijlstra return print_bfs_bug(ret); 24878eddac3fSPeter Zijlstra if (ret == 1) 24888eddac3fSPeter Zijlstra return ret; 24898eddac3fSPeter Zijlstra 24908eddac3fSPeter Zijlstra return print_irq_inversion_bug(curr, &root, target_entry, 24918eddac3fSPeter Zijlstra this, 0, irqclass); 24928eddac3fSPeter Zijlstra } 24938eddac3fSPeter Zijlstra 24948eddac3fSPeter Zijlstra void print_irqtrace_events(struct task_struct *curr) 24958eddac3fSPeter Zijlstra { 24968eddac3fSPeter Zijlstra printk("irq event stamp: %u\n", curr->irq_events); 24978eddac3fSPeter Zijlstra printk("hardirqs last enabled at (%u): ", curr->hardirq_enable_event); 24988eddac3fSPeter Zijlstra print_ip_sym(curr->hardirq_enable_ip); 24998eddac3fSPeter Zijlstra printk("hardirqs last disabled at (%u): ", curr->hardirq_disable_event); 25008eddac3fSPeter Zijlstra print_ip_sym(curr->hardirq_disable_ip); 25018eddac3fSPeter Zijlstra printk("softirqs last enabled at (%u): ", curr->softirq_enable_event); 25028eddac3fSPeter Zijlstra print_ip_sym(curr->softirq_enable_ip); 25038eddac3fSPeter Zijlstra printk("softirqs last disabled at (%u): ", curr->softirq_disable_event); 25048eddac3fSPeter Zijlstra print_ip_sym(curr->softirq_disable_ip); 25058eddac3fSPeter Zijlstra } 25068eddac3fSPeter Zijlstra 25078eddac3fSPeter Zijlstra static int HARDIRQ_verbose(struct lock_class *class) 25088eddac3fSPeter Zijlstra { 25098eddac3fSPeter Zijlstra #if HARDIRQ_VERBOSE 25108eddac3fSPeter Zijlstra return class_filter(class); 25118eddac3fSPeter Zijlstra #endif 25128eddac3fSPeter Zijlstra return 0; 25138eddac3fSPeter Zijlstra } 25148eddac3fSPeter Zijlstra 25158eddac3fSPeter Zijlstra static int SOFTIRQ_verbose(struct lock_class *class) 25168eddac3fSPeter Zijlstra { 25178eddac3fSPeter Zijlstra #if SOFTIRQ_VERBOSE 25188eddac3fSPeter Zijlstra return class_filter(class); 25198eddac3fSPeter Zijlstra #endif 25208eddac3fSPeter Zijlstra return 0; 25218eddac3fSPeter Zijlstra } 25228eddac3fSPeter Zijlstra 25238eddac3fSPeter Zijlstra static int RECLAIM_FS_verbose(struct lock_class *class) 25248eddac3fSPeter Zijlstra { 25258eddac3fSPeter Zijlstra #if RECLAIM_VERBOSE 25268eddac3fSPeter Zijlstra return class_filter(class); 25278eddac3fSPeter Zijlstra #endif 25288eddac3fSPeter Zijlstra return 0; 25298eddac3fSPeter Zijlstra } 25308eddac3fSPeter Zijlstra 25318eddac3fSPeter Zijlstra #define STRICT_READ_CHECKS 1 25328eddac3fSPeter Zijlstra 25338eddac3fSPeter Zijlstra static int (*state_verbose_f[])(struct lock_class *class) = { 25348eddac3fSPeter Zijlstra #define LOCKDEP_STATE(__STATE) \ 25358eddac3fSPeter Zijlstra __STATE##_verbose, 25368eddac3fSPeter Zijlstra #include "lockdep_states.h" 25378eddac3fSPeter Zijlstra #undef LOCKDEP_STATE 25388eddac3fSPeter Zijlstra }; 25398eddac3fSPeter Zijlstra 25408eddac3fSPeter Zijlstra static inline int state_verbose(enum lock_usage_bit bit, 25418eddac3fSPeter Zijlstra struct lock_class *class) 25428eddac3fSPeter Zijlstra { 25438eddac3fSPeter Zijlstra return state_verbose_f[bit >> 2](class); 25448eddac3fSPeter Zijlstra } 25458eddac3fSPeter Zijlstra 25468eddac3fSPeter Zijlstra typedef int (*check_usage_f)(struct task_struct *, struct held_lock *, 25478eddac3fSPeter Zijlstra enum lock_usage_bit bit, const char *name); 25488eddac3fSPeter Zijlstra 25498eddac3fSPeter Zijlstra static int 25508eddac3fSPeter Zijlstra mark_lock_irq(struct task_struct *curr, struct held_lock *this, 25518eddac3fSPeter Zijlstra enum lock_usage_bit new_bit) 25528eddac3fSPeter Zijlstra { 25538eddac3fSPeter Zijlstra int excl_bit = exclusive_bit(new_bit); 25548eddac3fSPeter Zijlstra int read = new_bit & 1; 25558eddac3fSPeter Zijlstra int dir = new_bit & 2; 25568eddac3fSPeter Zijlstra 25578eddac3fSPeter Zijlstra /* 25588eddac3fSPeter Zijlstra * mark USED_IN has to look forwards -- to ensure no dependency 25598eddac3fSPeter Zijlstra * has ENABLED state, which would allow recursion deadlocks. 25608eddac3fSPeter Zijlstra * 25618eddac3fSPeter Zijlstra * mark ENABLED has to look backwards -- to ensure no dependee 25628eddac3fSPeter Zijlstra * has USED_IN state, which, again, would allow recursion deadlocks. 25638eddac3fSPeter Zijlstra */ 25648eddac3fSPeter Zijlstra check_usage_f usage = dir ? 25658eddac3fSPeter Zijlstra check_usage_backwards : check_usage_forwards; 25668eddac3fSPeter Zijlstra 25678eddac3fSPeter Zijlstra /* 25688eddac3fSPeter Zijlstra * Validate that this particular lock does not have conflicting 25698eddac3fSPeter Zijlstra * usage states. 25708eddac3fSPeter Zijlstra */ 25718eddac3fSPeter Zijlstra if (!valid_state(curr, this, new_bit, excl_bit)) 25728eddac3fSPeter Zijlstra return 0; 25738eddac3fSPeter Zijlstra 25748eddac3fSPeter Zijlstra /* 25758eddac3fSPeter Zijlstra * Validate that the lock dependencies don't have conflicting usage 25768eddac3fSPeter Zijlstra * states. 25778eddac3fSPeter Zijlstra */ 25788eddac3fSPeter Zijlstra if ((!read || !dir || STRICT_READ_CHECKS) && 25798eddac3fSPeter Zijlstra !usage(curr, this, excl_bit, state_name(new_bit & ~1))) 25808eddac3fSPeter Zijlstra return 0; 25818eddac3fSPeter Zijlstra 25828eddac3fSPeter Zijlstra /* 25838eddac3fSPeter Zijlstra * Check for read in write conflicts 25848eddac3fSPeter Zijlstra */ 25858eddac3fSPeter Zijlstra if (!read) { 25868eddac3fSPeter Zijlstra if (!valid_state(curr, this, new_bit, excl_bit + 1)) 25878eddac3fSPeter Zijlstra return 0; 25888eddac3fSPeter Zijlstra 25898eddac3fSPeter Zijlstra if (STRICT_READ_CHECKS && 25908eddac3fSPeter Zijlstra !usage(curr, this, excl_bit + 1, 25918eddac3fSPeter Zijlstra state_name(new_bit + 1))) 25928eddac3fSPeter Zijlstra return 0; 25938eddac3fSPeter Zijlstra } 25948eddac3fSPeter Zijlstra 25958eddac3fSPeter Zijlstra if (state_verbose(new_bit, hlock_class(this))) 25968eddac3fSPeter Zijlstra return 2; 25978eddac3fSPeter Zijlstra 25988eddac3fSPeter Zijlstra return 1; 25998eddac3fSPeter Zijlstra } 26008eddac3fSPeter Zijlstra 26018eddac3fSPeter Zijlstra enum mark_type { 26028eddac3fSPeter Zijlstra #define LOCKDEP_STATE(__STATE) __STATE, 26038eddac3fSPeter Zijlstra #include "lockdep_states.h" 26048eddac3fSPeter Zijlstra #undef LOCKDEP_STATE 26058eddac3fSPeter Zijlstra }; 26068eddac3fSPeter Zijlstra 26078eddac3fSPeter Zijlstra /* 26088eddac3fSPeter Zijlstra * Mark all held locks with a usage bit: 26098eddac3fSPeter Zijlstra */ 26108eddac3fSPeter Zijlstra static int 26118eddac3fSPeter Zijlstra mark_held_locks(struct task_struct *curr, enum mark_type mark) 26128eddac3fSPeter Zijlstra { 26138eddac3fSPeter Zijlstra enum lock_usage_bit usage_bit; 26148eddac3fSPeter Zijlstra struct held_lock *hlock; 26158eddac3fSPeter Zijlstra int i; 26168eddac3fSPeter Zijlstra 26178eddac3fSPeter Zijlstra for (i = 0; i < curr->lockdep_depth; i++) { 26188eddac3fSPeter Zijlstra hlock = curr->held_locks + i; 26198eddac3fSPeter Zijlstra 26208eddac3fSPeter Zijlstra usage_bit = 2 + (mark << 2); /* ENABLED */ 26218eddac3fSPeter Zijlstra if (hlock->read) 26228eddac3fSPeter Zijlstra usage_bit += 1; /* READ */ 26238eddac3fSPeter Zijlstra 26248eddac3fSPeter Zijlstra BUG_ON(usage_bit >= LOCK_USAGE_STATES); 26258eddac3fSPeter Zijlstra 262634d0ed5eSOleg Nesterov if (!hlock->check) 26278eddac3fSPeter Zijlstra continue; 26288eddac3fSPeter Zijlstra 26298eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, usage_bit)) 26308eddac3fSPeter Zijlstra return 0; 26318eddac3fSPeter Zijlstra } 26328eddac3fSPeter Zijlstra 26338eddac3fSPeter Zijlstra return 1; 26348eddac3fSPeter Zijlstra } 26358eddac3fSPeter Zijlstra 26368eddac3fSPeter Zijlstra /* 26378eddac3fSPeter Zijlstra * Hardirqs will be enabled: 26388eddac3fSPeter Zijlstra */ 26398eddac3fSPeter Zijlstra static void __trace_hardirqs_on_caller(unsigned long ip) 26408eddac3fSPeter Zijlstra { 26418eddac3fSPeter Zijlstra struct task_struct *curr = current; 26428eddac3fSPeter Zijlstra 26438eddac3fSPeter Zijlstra /* we'll do an OFF -> ON transition: */ 26448eddac3fSPeter Zijlstra curr->hardirqs_enabled = 1; 26458eddac3fSPeter Zijlstra 26468eddac3fSPeter Zijlstra /* 26478eddac3fSPeter Zijlstra * We are going to turn hardirqs on, so set the 26488eddac3fSPeter Zijlstra * usage bit for all held locks: 26498eddac3fSPeter Zijlstra */ 26508eddac3fSPeter Zijlstra if (!mark_held_locks(curr, HARDIRQ)) 26518eddac3fSPeter Zijlstra return; 26528eddac3fSPeter Zijlstra /* 26538eddac3fSPeter Zijlstra * If we have softirqs enabled, then set the usage 26548eddac3fSPeter Zijlstra * bit for all held locks. (disabled hardirqs prevented 26558eddac3fSPeter Zijlstra * this bit from being set before) 26568eddac3fSPeter Zijlstra */ 26578eddac3fSPeter Zijlstra if (curr->softirqs_enabled) 26588eddac3fSPeter Zijlstra if (!mark_held_locks(curr, SOFTIRQ)) 26598eddac3fSPeter Zijlstra return; 26608eddac3fSPeter Zijlstra 26618eddac3fSPeter Zijlstra curr->hardirq_enable_ip = ip; 26628eddac3fSPeter Zijlstra curr->hardirq_enable_event = ++curr->irq_events; 26638eddac3fSPeter Zijlstra debug_atomic_inc(hardirqs_on_events); 26648eddac3fSPeter Zijlstra } 26658eddac3fSPeter Zijlstra 2666b35f8305SAndi Kleen __visible void trace_hardirqs_on_caller(unsigned long ip) 26678eddac3fSPeter Zijlstra { 26688eddac3fSPeter Zijlstra time_hardirqs_on(CALLER_ADDR0, ip); 26698eddac3fSPeter Zijlstra 26708eddac3fSPeter Zijlstra if (unlikely(!debug_locks || current->lockdep_recursion)) 26718eddac3fSPeter Zijlstra return; 26728eddac3fSPeter Zijlstra 26738eddac3fSPeter Zijlstra if (unlikely(current->hardirqs_enabled)) { 26748eddac3fSPeter Zijlstra /* 26758eddac3fSPeter Zijlstra * Neither irq nor preemption are disabled here 26768eddac3fSPeter Zijlstra * so this is racy by nature but losing one hit 26778eddac3fSPeter Zijlstra * in a stat is not a big deal. 26788eddac3fSPeter Zijlstra */ 26798eddac3fSPeter Zijlstra __debug_atomic_inc(redundant_hardirqs_on); 26808eddac3fSPeter Zijlstra return; 26818eddac3fSPeter Zijlstra } 26828eddac3fSPeter Zijlstra 26838eddac3fSPeter Zijlstra /* 26848eddac3fSPeter Zijlstra * We're enabling irqs and according to our state above irqs weren't 26858eddac3fSPeter Zijlstra * already enabled, yet we find the hardware thinks they are in fact 26868eddac3fSPeter Zijlstra * enabled.. someone messed up their IRQ state tracing. 26878eddac3fSPeter Zijlstra */ 26888eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!irqs_disabled())) 26898eddac3fSPeter Zijlstra return; 26908eddac3fSPeter Zijlstra 26918eddac3fSPeter Zijlstra /* 26928eddac3fSPeter Zijlstra * See the fine text that goes along with this variable definition. 26938eddac3fSPeter Zijlstra */ 26948eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(unlikely(early_boot_irqs_disabled))) 26958eddac3fSPeter Zijlstra return; 26968eddac3fSPeter Zijlstra 26978eddac3fSPeter Zijlstra /* 26988eddac3fSPeter Zijlstra * Can't allow enabling interrupts while in an interrupt handler, 26998eddac3fSPeter Zijlstra * that's general bad form and such. Recursion, limited stack etc.. 27008eddac3fSPeter Zijlstra */ 27018eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(current->hardirq_context)) 27028eddac3fSPeter Zijlstra return; 27038eddac3fSPeter Zijlstra 27048eddac3fSPeter Zijlstra current->lockdep_recursion = 1; 27058eddac3fSPeter Zijlstra __trace_hardirqs_on_caller(ip); 27068eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 27078eddac3fSPeter Zijlstra } 27088eddac3fSPeter Zijlstra EXPORT_SYMBOL(trace_hardirqs_on_caller); 27098eddac3fSPeter Zijlstra 27108eddac3fSPeter Zijlstra void trace_hardirqs_on(void) 27118eddac3fSPeter Zijlstra { 27128eddac3fSPeter Zijlstra trace_hardirqs_on_caller(CALLER_ADDR0); 27138eddac3fSPeter Zijlstra } 27148eddac3fSPeter Zijlstra EXPORT_SYMBOL(trace_hardirqs_on); 27158eddac3fSPeter Zijlstra 27168eddac3fSPeter Zijlstra /* 27178eddac3fSPeter Zijlstra * Hardirqs were disabled: 27188eddac3fSPeter Zijlstra */ 2719b35f8305SAndi Kleen __visible void trace_hardirqs_off_caller(unsigned long ip) 27208eddac3fSPeter Zijlstra { 27218eddac3fSPeter Zijlstra struct task_struct *curr = current; 27228eddac3fSPeter Zijlstra 27238eddac3fSPeter Zijlstra time_hardirqs_off(CALLER_ADDR0, ip); 27248eddac3fSPeter Zijlstra 27258eddac3fSPeter Zijlstra if (unlikely(!debug_locks || current->lockdep_recursion)) 27268eddac3fSPeter Zijlstra return; 27278eddac3fSPeter Zijlstra 27288eddac3fSPeter Zijlstra /* 27298eddac3fSPeter Zijlstra * So we're supposed to get called after you mask local IRQs, but for 27308eddac3fSPeter Zijlstra * some reason the hardware doesn't quite think you did a proper job. 27318eddac3fSPeter Zijlstra */ 27328eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!irqs_disabled())) 27338eddac3fSPeter Zijlstra return; 27348eddac3fSPeter Zijlstra 27358eddac3fSPeter Zijlstra if (curr->hardirqs_enabled) { 27368eddac3fSPeter Zijlstra /* 27378eddac3fSPeter Zijlstra * We have done an ON -> OFF transition: 27388eddac3fSPeter Zijlstra */ 27398eddac3fSPeter Zijlstra curr->hardirqs_enabled = 0; 27408eddac3fSPeter Zijlstra curr->hardirq_disable_ip = ip; 27418eddac3fSPeter Zijlstra curr->hardirq_disable_event = ++curr->irq_events; 27428eddac3fSPeter Zijlstra debug_atomic_inc(hardirqs_off_events); 27438eddac3fSPeter Zijlstra } else 27448eddac3fSPeter Zijlstra debug_atomic_inc(redundant_hardirqs_off); 27458eddac3fSPeter Zijlstra } 27468eddac3fSPeter Zijlstra EXPORT_SYMBOL(trace_hardirqs_off_caller); 27478eddac3fSPeter Zijlstra 27488eddac3fSPeter Zijlstra void trace_hardirqs_off(void) 27498eddac3fSPeter Zijlstra { 27508eddac3fSPeter Zijlstra trace_hardirqs_off_caller(CALLER_ADDR0); 27518eddac3fSPeter Zijlstra } 27528eddac3fSPeter Zijlstra EXPORT_SYMBOL(trace_hardirqs_off); 27538eddac3fSPeter Zijlstra 27548eddac3fSPeter Zijlstra /* 27558eddac3fSPeter Zijlstra * Softirqs will be enabled: 27568eddac3fSPeter Zijlstra */ 27578eddac3fSPeter Zijlstra void trace_softirqs_on(unsigned long ip) 27588eddac3fSPeter Zijlstra { 27598eddac3fSPeter Zijlstra struct task_struct *curr = current; 27608eddac3fSPeter Zijlstra 27618eddac3fSPeter Zijlstra if (unlikely(!debug_locks || current->lockdep_recursion)) 27628eddac3fSPeter Zijlstra return; 27638eddac3fSPeter Zijlstra 27648eddac3fSPeter Zijlstra /* 27658eddac3fSPeter Zijlstra * We fancy IRQs being disabled here, see softirq.c, avoids 27668eddac3fSPeter Zijlstra * funny state and nesting things. 27678eddac3fSPeter Zijlstra */ 27688eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!irqs_disabled())) 27698eddac3fSPeter Zijlstra return; 27708eddac3fSPeter Zijlstra 27718eddac3fSPeter Zijlstra if (curr->softirqs_enabled) { 27728eddac3fSPeter Zijlstra debug_atomic_inc(redundant_softirqs_on); 27738eddac3fSPeter Zijlstra return; 27748eddac3fSPeter Zijlstra } 27758eddac3fSPeter Zijlstra 27768eddac3fSPeter Zijlstra current->lockdep_recursion = 1; 27778eddac3fSPeter Zijlstra /* 27788eddac3fSPeter Zijlstra * We'll do an OFF -> ON transition: 27798eddac3fSPeter Zijlstra */ 27808eddac3fSPeter Zijlstra curr->softirqs_enabled = 1; 27818eddac3fSPeter Zijlstra curr->softirq_enable_ip = ip; 27828eddac3fSPeter Zijlstra curr->softirq_enable_event = ++curr->irq_events; 27838eddac3fSPeter Zijlstra debug_atomic_inc(softirqs_on_events); 27848eddac3fSPeter Zijlstra /* 27858eddac3fSPeter Zijlstra * We are going to turn softirqs on, so set the 27868eddac3fSPeter Zijlstra * usage bit for all held locks, if hardirqs are 27878eddac3fSPeter Zijlstra * enabled too: 27888eddac3fSPeter Zijlstra */ 27898eddac3fSPeter Zijlstra if (curr->hardirqs_enabled) 27908eddac3fSPeter Zijlstra mark_held_locks(curr, SOFTIRQ); 27918eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 27928eddac3fSPeter Zijlstra } 27938eddac3fSPeter Zijlstra 27948eddac3fSPeter Zijlstra /* 27958eddac3fSPeter Zijlstra * Softirqs were disabled: 27968eddac3fSPeter Zijlstra */ 27978eddac3fSPeter Zijlstra void trace_softirqs_off(unsigned long ip) 27988eddac3fSPeter Zijlstra { 27998eddac3fSPeter Zijlstra struct task_struct *curr = current; 28008eddac3fSPeter Zijlstra 28018eddac3fSPeter Zijlstra if (unlikely(!debug_locks || current->lockdep_recursion)) 28028eddac3fSPeter Zijlstra return; 28038eddac3fSPeter Zijlstra 28048eddac3fSPeter Zijlstra /* 28058eddac3fSPeter Zijlstra * We fancy IRQs being disabled here, see softirq.c 28068eddac3fSPeter Zijlstra */ 28078eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!irqs_disabled())) 28088eddac3fSPeter Zijlstra return; 28098eddac3fSPeter Zijlstra 28108eddac3fSPeter Zijlstra if (curr->softirqs_enabled) { 28118eddac3fSPeter Zijlstra /* 28128eddac3fSPeter Zijlstra * We have done an ON -> OFF transition: 28138eddac3fSPeter Zijlstra */ 28148eddac3fSPeter Zijlstra curr->softirqs_enabled = 0; 28158eddac3fSPeter Zijlstra curr->softirq_disable_ip = ip; 28168eddac3fSPeter Zijlstra curr->softirq_disable_event = ++curr->irq_events; 28178eddac3fSPeter Zijlstra debug_atomic_inc(softirqs_off_events); 28188eddac3fSPeter Zijlstra /* 28198eddac3fSPeter Zijlstra * Whoops, we wanted softirqs off, so why aren't they? 28208eddac3fSPeter Zijlstra */ 28218eddac3fSPeter Zijlstra DEBUG_LOCKS_WARN_ON(!softirq_count()); 28228eddac3fSPeter Zijlstra } else 28238eddac3fSPeter Zijlstra debug_atomic_inc(redundant_softirqs_off); 28248eddac3fSPeter Zijlstra } 28258eddac3fSPeter Zijlstra 28268eddac3fSPeter Zijlstra static void __lockdep_trace_alloc(gfp_t gfp_mask, unsigned long flags) 28278eddac3fSPeter Zijlstra { 28288eddac3fSPeter Zijlstra struct task_struct *curr = current; 28298eddac3fSPeter Zijlstra 28308eddac3fSPeter Zijlstra if (unlikely(!debug_locks)) 28318eddac3fSPeter Zijlstra return; 28328eddac3fSPeter Zijlstra 28338eddac3fSPeter Zijlstra /* no reclaim without waiting on it */ 2834d0164adcSMel Gorman if (!(gfp_mask & __GFP_DIRECT_RECLAIM)) 28358eddac3fSPeter Zijlstra return; 28368eddac3fSPeter Zijlstra 28378eddac3fSPeter Zijlstra /* this guy won't enter reclaim */ 28388eddac3fSPeter Zijlstra if ((curr->flags & PF_MEMALLOC) && !(gfp_mask & __GFP_NOMEMALLOC)) 28398eddac3fSPeter Zijlstra return; 28408eddac3fSPeter Zijlstra 28418eddac3fSPeter Zijlstra /* We're only interested __GFP_FS allocations for now */ 28428eddac3fSPeter Zijlstra if (!(gfp_mask & __GFP_FS)) 28438eddac3fSPeter Zijlstra return; 28448eddac3fSPeter Zijlstra 28458eddac3fSPeter Zijlstra /* 28468eddac3fSPeter Zijlstra * Oi! Can't be having __GFP_FS allocations with IRQs disabled. 28478eddac3fSPeter Zijlstra */ 28488eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(irqs_disabled_flags(flags))) 28498eddac3fSPeter Zijlstra return; 28508eddac3fSPeter Zijlstra 28518eddac3fSPeter Zijlstra mark_held_locks(curr, RECLAIM_FS); 28528eddac3fSPeter Zijlstra } 28538eddac3fSPeter Zijlstra 28548eddac3fSPeter Zijlstra static void check_flags(unsigned long flags); 28558eddac3fSPeter Zijlstra 28568eddac3fSPeter Zijlstra void lockdep_trace_alloc(gfp_t gfp_mask) 28578eddac3fSPeter Zijlstra { 28588eddac3fSPeter Zijlstra unsigned long flags; 28598eddac3fSPeter Zijlstra 28608eddac3fSPeter Zijlstra if (unlikely(current->lockdep_recursion)) 28618eddac3fSPeter Zijlstra return; 28628eddac3fSPeter Zijlstra 28638eddac3fSPeter Zijlstra raw_local_irq_save(flags); 28648eddac3fSPeter Zijlstra check_flags(flags); 28658eddac3fSPeter Zijlstra current->lockdep_recursion = 1; 28668eddac3fSPeter Zijlstra __lockdep_trace_alloc(gfp_mask, flags); 28678eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 28688eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 28698eddac3fSPeter Zijlstra } 28708eddac3fSPeter Zijlstra 28718eddac3fSPeter Zijlstra static int mark_irqflags(struct task_struct *curr, struct held_lock *hlock) 28728eddac3fSPeter Zijlstra { 28738eddac3fSPeter Zijlstra /* 28748eddac3fSPeter Zijlstra * If non-trylock use in a hardirq or softirq context, then 28758eddac3fSPeter Zijlstra * mark the lock as used in these contexts: 28768eddac3fSPeter Zijlstra */ 28778eddac3fSPeter Zijlstra if (!hlock->trylock) { 28788eddac3fSPeter Zijlstra if (hlock->read) { 28798eddac3fSPeter Zijlstra if (curr->hardirq_context) 28808eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, 28818eddac3fSPeter Zijlstra LOCK_USED_IN_HARDIRQ_READ)) 28828eddac3fSPeter Zijlstra return 0; 28838eddac3fSPeter Zijlstra if (curr->softirq_context) 28848eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, 28858eddac3fSPeter Zijlstra LOCK_USED_IN_SOFTIRQ_READ)) 28868eddac3fSPeter Zijlstra return 0; 28878eddac3fSPeter Zijlstra } else { 28888eddac3fSPeter Zijlstra if (curr->hardirq_context) 28898eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, LOCK_USED_IN_HARDIRQ)) 28908eddac3fSPeter Zijlstra return 0; 28918eddac3fSPeter Zijlstra if (curr->softirq_context) 28928eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, LOCK_USED_IN_SOFTIRQ)) 28938eddac3fSPeter Zijlstra return 0; 28948eddac3fSPeter Zijlstra } 28958eddac3fSPeter Zijlstra } 28968eddac3fSPeter Zijlstra if (!hlock->hardirqs_off) { 28978eddac3fSPeter Zijlstra if (hlock->read) { 28988eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, 28998eddac3fSPeter Zijlstra LOCK_ENABLED_HARDIRQ_READ)) 29008eddac3fSPeter Zijlstra return 0; 29018eddac3fSPeter Zijlstra if (curr->softirqs_enabled) 29028eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, 29038eddac3fSPeter Zijlstra LOCK_ENABLED_SOFTIRQ_READ)) 29048eddac3fSPeter Zijlstra return 0; 29058eddac3fSPeter Zijlstra } else { 29068eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, 29078eddac3fSPeter Zijlstra LOCK_ENABLED_HARDIRQ)) 29088eddac3fSPeter Zijlstra return 0; 29098eddac3fSPeter Zijlstra if (curr->softirqs_enabled) 29108eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, 29118eddac3fSPeter Zijlstra LOCK_ENABLED_SOFTIRQ)) 29128eddac3fSPeter Zijlstra return 0; 29138eddac3fSPeter Zijlstra } 29148eddac3fSPeter Zijlstra } 29158eddac3fSPeter Zijlstra 29168eddac3fSPeter Zijlstra /* 29178eddac3fSPeter Zijlstra * We reuse the irq context infrastructure more broadly as a general 29188eddac3fSPeter Zijlstra * context checking code. This tests GFP_FS recursion (a lock taken 29198eddac3fSPeter Zijlstra * during reclaim for a GFP_FS allocation is held over a GFP_FS 29208eddac3fSPeter Zijlstra * allocation). 29218eddac3fSPeter Zijlstra */ 29228eddac3fSPeter Zijlstra if (!hlock->trylock && (curr->lockdep_reclaim_gfp & __GFP_FS)) { 29238eddac3fSPeter Zijlstra if (hlock->read) { 29248eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, LOCK_USED_IN_RECLAIM_FS_READ)) 29258eddac3fSPeter Zijlstra return 0; 29268eddac3fSPeter Zijlstra } else { 29278eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, LOCK_USED_IN_RECLAIM_FS)) 29288eddac3fSPeter Zijlstra return 0; 29298eddac3fSPeter Zijlstra } 29308eddac3fSPeter Zijlstra } 29318eddac3fSPeter Zijlstra 29328eddac3fSPeter Zijlstra return 1; 29338eddac3fSPeter Zijlstra } 29348eddac3fSPeter Zijlstra 29358eddac3fSPeter Zijlstra static int separate_irq_context(struct task_struct *curr, 29368eddac3fSPeter Zijlstra struct held_lock *hlock) 29378eddac3fSPeter Zijlstra { 29388eddac3fSPeter Zijlstra unsigned int depth = curr->lockdep_depth; 29398eddac3fSPeter Zijlstra 29408eddac3fSPeter Zijlstra /* 29418eddac3fSPeter Zijlstra * Keep track of points where we cross into an interrupt context: 29428eddac3fSPeter Zijlstra */ 29438eddac3fSPeter Zijlstra hlock->irq_context = 2*(curr->hardirq_context ? 1 : 0) + 29448eddac3fSPeter Zijlstra curr->softirq_context; 29458eddac3fSPeter Zijlstra if (depth) { 29468eddac3fSPeter Zijlstra struct held_lock *prev_hlock; 29478eddac3fSPeter Zijlstra 29488eddac3fSPeter Zijlstra prev_hlock = curr->held_locks + depth-1; 29498eddac3fSPeter Zijlstra /* 29508eddac3fSPeter Zijlstra * If we cross into another context, reset the 29518eddac3fSPeter Zijlstra * hash key (this also prevents the checking and the 29528eddac3fSPeter Zijlstra * adding of the dependency to 'prev'): 29538eddac3fSPeter Zijlstra */ 29548eddac3fSPeter Zijlstra if (prev_hlock->irq_context != hlock->irq_context) 29558eddac3fSPeter Zijlstra return 1; 29568eddac3fSPeter Zijlstra } 29578eddac3fSPeter Zijlstra return 0; 29588eddac3fSPeter Zijlstra } 29598eddac3fSPeter Zijlstra 29608eddac3fSPeter Zijlstra #else /* defined(CONFIG_TRACE_IRQFLAGS) && defined(CONFIG_PROVE_LOCKING) */ 29618eddac3fSPeter Zijlstra 29628eddac3fSPeter Zijlstra static inline 29638eddac3fSPeter Zijlstra int mark_lock_irq(struct task_struct *curr, struct held_lock *this, 29648eddac3fSPeter Zijlstra enum lock_usage_bit new_bit) 29658eddac3fSPeter Zijlstra { 29668eddac3fSPeter Zijlstra WARN_ON(1); /* Impossible innit? when we don't have TRACE_IRQFLAG */ 29678eddac3fSPeter Zijlstra return 1; 29688eddac3fSPeter Zijlstra } 29698eddac3fSPeter Zijlstra 29708eddac3fSPeter Zijlstra static inline int mark_irqflags(struct task_struct *curr, 29718eddac3fSPeter Zijlstra struct held_lock *hlock) 29728eddac3fSPeter Zijlstra { 29738eddac3fSPeter Zijlstra return 1; 29748eddac3fSPeter Zijlstra } 29758eddac3fSPeter Zijlstra 29768eddac3fSPeter Zijlstra static inline int separate_irq_context(struct task_struct *curr, 29778eddac3fSPeter Zijlstra struct held_lock *hlock) 29788eddac3fSPeter Zijlstra { 29798eddac3fSPeter Zijlstra return 0; 29808eddac3fSPeter Zijlstra } 29818eddac3fSPeter Zijlstra 29828eddac3fSPeter Zijlstra void lockdep_trace_alloc(gfp_t gfp_mask) 29838eddac3fSPeter Zijlstra { 29848eddac3fSPeter Zijlstra } 29858eddac3fSPeter Zijlstra 29868eddac3fSPeter Zijlstra #endif /* defined(CONFIG_TRACE_IRQFLAGS) && defined(CONFIG_PROVE_LOCKING) */ 29878eddac3fSPeter Zijlstra 29888eddac3fSPeter Zijlstra /* 29898eddac3fSPeter Zijlstra * Mark a lock with a usage bit, and validate the state transition: 29908eddac3fSPeter Zijlstra */ 29918eddac3fSPeter Zijlstra static int mark_lock(struct task_struct *curr, struct held_lock *this, 29928eddac3fSPeter Zijlstra enum lock_usage_bit new_bit) 29938eddac3fSPeter Zijlstra { 29948eddac3fSPeter Zijlstra unsigned int new_mask = 1 << new_bit, ret = 1; 29958eddac3fSPeter Zijlstra 29968eddac3fSPeter Zijlstra /* 29978eddac3fSPeter Zijlstra * If already set then do not dirty the cacheline, 29988eddac3fSPeter Zijlstra * nor do any checks: 29998eddac3fSPeter Zijlstra */ 30008eddac3fSPeter Zijlstra if (likely(hlock_class(this)->usage_mask & new_mask)) 30018eddac3fSPeter Zijlstra return 1; 30028eddac3fSPeter Zijlstra 30038eddac3fSPeter Zijlstra if (!graph_lock()) 30048eddac3fSPeter Zijlstra return 0; 30058eddac3fSPeter Zijlstra /* 30068eddac3fSPeter Zijlstra * Make sure we didn't race: 30078eddac3fSPeter Zijlstra */ 30088eddac3fSPeter Zijlstra if (unlikely(hlock_class(this)->usage_mask & new_mask)) { 30098eddac3fSPeter Zijlstra graph_unlock(); 30108eddac3fSPeter Zijlstra return 1; 30118eddac3fSPeter Zijlstra } 30128eddac3fSPeter Zijlstra 30138eddac3fSPeter Zijlstra hlock_class(this)->usage_mask |= new_mask; 30148eddac3fSPeter Zijlstra 30158eddac3fSPeter Zijlstra if (!save_trace(hlock_class(this)->usage_traces + new_bit)) 30168eddac3fSPeter Zijlstra return 0; 30178eddac3fSPeter Zijlstra 30188eddac3fSPeter Zijlstra switch (new_bit) { 30198eddac3fSPeter Zijlstra #define LOCKDEP_STATE(__STATE) \ 30208eddac3fSPeter Zijlstra case LOCK_USED_IN_##__STATE: \ 30218eddac3fSPeter Zijlstra case LOCK_USED_IN_##__STATE##_READ: \ 30228eddac3fSPeter Zijlstra case LOCK_ENABLED_##__STATE: \ 30238eddac3fSPeter Zijlstra case LOCK_ENABLED_##__STATE##_READ: 30248eddac3fSPeter Zijlstra #include "lockdep_states.h" 30258eddac3fSPeter Zijlstra #undef LOCKDEP_STATE 30268eddac3fSPeter Zijlstra ret = mark_lock_irq(curr, this, new_bit); 30278eddac3fSPeter Zijlstra if (!ret) 30288eddac3fSPeter Zijlstra return 0; 30298eddac3fSPeter Zijlstra break; 30308eddac3fSPeter Zijlstra case LOCK_USED: 30318eddac3fSPeter Zijlstra debug_atomic_dec(nr_unused_locks); 30328eddac3fSPeter Zijlstra break; 30338eddac3fSPeter Zijlstra default: 30348eddac3fSPeter Zijlstra if (!debug_locks_off_graph_unlock()) 30358eddac3fSPeter Zijlstra return 0; 30368eddac3fSPeter Zijlstra WARN_ON(1); 30378eddac3fSPeter Zijlstra return 0; 30388eddac3fSPeter Zijlstra } 30398eddac3fSPeter Zijlstra 30408eddac3fSPeter Zijlstra graph_unlock(); 30418eddac3fSPeter Zijlstra 30428eddac3fSPeter Zijlstra /* 30438eddac3fSPeter Zijlstra * We must printk outside of the graph_lock: 30448eddac3fSPeter Zijlstra */ 30458eddac3fSPeter Zijlstra if (ret == 2) { 30468eddac3fSPeter Zijlstra printk("\nmarked lock as {%s}:\n", usage_str[new_bit]); 30478eddac3fSPeter Zijlstra print_lock(this); 30488eddac3fSPeter Zijlstra print_irqtrace_events(curr); 30498eddac3fSPeter Zijlstra dump_stack(); 30508eddac3fSPeter Zijlstra } 30518eddac3fSPeter Zijlstra 30528eddac3fSPeter Zijlstra return ret; 30538eddac3fSPeter Zijlstra } 30548eddac3fSPeter Zijlstra 30558eddac3fSPeter Zijlstra /* 30568eddac3fSPeter Zijlstra * Initialize a lock instance's lock-class mapping info: 30578eddac3fSPeter Zijlstra */ 30588eddac3fSPeter Zijlstra void lockdep_init_map(struct lockdep_map *lock, const char *name, 30598eddac3fSPeter Zijlstra struct lock_class_key *key, int subclass) 30608eddac3fSPeter Zijlstra { 30618eddac3fSPeter Zijlstra int i; 30628eddac3fSPeter Zijlstra 30638eddac3fSPeter Zijlstra kmemcheck_mark_initialized(lock, sizeof(*lock)); 30648eddac3fSPeter Zijlstra 30658eddac3fSPeter Zijlstra for (i = 0; i < NR_LOCKDEP_CACHING_CLASSES; i++) 30668eddac3fSPeter Zijlstra lock->class_cache[i] = NULL; 30678eddac3fSPeter Zijlstra 30688eddac3fSPeter Zijlstra #ifdef CONFIG_LOCK_STAT 30698eddac3fSPeter Zijlstra lock->cpu = raw_smp_processor_id(); 30708eddac3fSPeter Zijlstra #endif 30718eddac3fSPeter Zijlstra 30728eddac3fSPeter Zijlstra /* 30738eddac3fSPeter Zijlstra * Can't be having no nameless bastards around this place! 30748eddac3fSPeter Zijlstra */ 30758eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!name)) { 30768eddac3fSPeter Zijlstra lock->name = "NULL"; 30778eddac3fSPeter Zijlstra return; 30788eddac3fSPeter Zijlstra } 30798eddac3fSPeter Zijlstra 30808eddac3fSPeter Zijlstra lock->name = name; 30818eddac3fSPeter Zijlstra 30828eddac3fSPeter Zijlstra /* 30838eddac3fSPeter Zijlstra * No key, no joy, we need to hash something. 30848eddac3fSPeter Zijlstra */ 30858eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!key)) 30868eddac3fSPeter Zijlstra return; 30878eddac3fSPeter Zijlstra /* 30888eddac3fSPeter Zijlstra * Sanity check, the lock-class key must be persistent: 30898eddac3fSPeter Zijlstra */ 30908eddac3fSPeter Zijlstra if (!static_obj(key)) { 30918eddac3fSPeter Zijlstra printk("BUG: key %p not in .data!\n", key); 30928eddac3fSPeter Zijlstra /* 30938eddac3fSPeter Zijlstra * What it says above ^^^^^, I suggest you read it. 30948eddac3fSPeter Zijlstra */ 30958eddac3fSPeter Zijlstra DEBUG_LOCKS_WARN_ON(1); 30968eddac3fSPeter Zijlstra return; 30978eddac3fSPeter Zijlstra } 30988eddac3fSPeter Zijlstra lock->key = key; 30998eddac3fSPeter Zijlstra 31008eddac3fSPeter Zijlstra if (unlikely(!debug_locks)) 31018eddac3fSPeter Zijlstra return; 31028eddac3fSPeter Zijlstra 310335a9393cSPeter Zijlstra if (subclass) { 310435a9393cSPeter Zijlstra unsigned long flags; 310535a9393cSPeter Zijlstra 310635a9393cSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(current->lockdep_recursion)) 310735a9393cSPeter Zijlstra return; 310835a9393cSPeter Zijlstra 310935a9393cSPeter Zijlstra raw_local_irq_save(flags); 311035a9393cSPeter Zijlstra current->lockdep_recursion = 1; 31118eddac3fSPeter Zijlstra register_lock_class(lock, subclass, 1); 311235a9393cSPeter Zijlstra current->lockdep_recursion = 0; 311335a9393cSPeter Zijlstra raw_local_irq_restore(flags); 311435a9393cSPeter Zijlstra } 31158eddac3fSPeter Zijlstra } 31168eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(lockdep_init_map); 31178eddac3fSPeter Zijlstra 31188eddac3fSPeter Zijlstra struct lock_class_key __lockdep_no_validate__; 31198eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(__lockdep_no_validate__); 31208eddac3fSPeter Zijlstra 31218eddac3fSPeter Zijlstra static int 31228eddac3fSPeter Zijlstra print_lock_nested_lock_not_held(struct task_struct *curr, 31238eddac3fSPeter Zijlstra struct held_lock *hlock, 31248eddac3fSPeter Zijlstra unsigned long ip) 31258eddac3fSPeter Zijlstra { 31268eddac3fSPeter Zijlstra if (!debug_locks_off()) 31278eddac3fSPeter Zijlstra return 0; 31288eddac3fSPeter Zijlstra if (debug_locks_silent) 31298eddac3fSPeter Zijlstra return 0; 31308eddac3fSPeter Zijlstra 31318eddac3fSPeter Zijlstra printk("\n"); 31328eddac3fSPeter Zijlstra printk("==================================\n"); 31338eddac3fSPeter Zijlstra printk("[ BUG: Nested lock was not taken ]\n"); 31348eddac3fSPeter Zijlstra print_kernel_ident(); 31358eddac3fSPeter Zijlstra printk("----------------------------------\n"); 31368eddac3fSPeter Zijlstra 31378eddac3fSPeter Zijlstra printk("%s/%d is trying to lock:\n", curr->comm, task_pid_nr(curr)); 31388eddac3fSPeter Zijlstra print_lock(hlock); 31398eddac3fSPeter Zijlstra 31408eddac3fSPeter Zijlstra printk("\nbut this task is not holding:\n"); 31418eddac3fSPeter Zijlstra printk("%s\n", hlock->nest_lock->name); 31428eddac3fSPeter Zijlstra 31438eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 31448eddac3fSPeter Zijlstra dump_stack(); 31458eddac3fSPeter Zijlstra 31468eddac3fSPeter Zijlstra printk("\nother info that might help us debug this:\n"); 31478eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 31488eddac3fSPeter Zijlstra 31498eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 31508eddac3fSPeter Zijlstra dump_stack(); 31518eddac3fSPeter Zijlstra 31528eddac3fSPeter Zijlstra return 0; 31538eddac3fSPeter Zijlstra } 31548eddac3fSPeter Zijlstra 31558eddac3fSPeter Zijlstra static int __lock_is_held(struct lockdep_map *lock); 31568eddac3fSPeter Zijlstra 31578eddac3fSPeter Zijlstra /* 31588eddac3fSPeter Zijlstra * This gets called for every mutex_lock*()/spin_lock*() operation. 31598eddac3fSPeter Zijlstra * We maintain the dependency maps and validate the locking attempt: 31608eddac3fSPeter Zijlstra */ 31618eddac3fSPeter Zijlstra static int __lock_acquire(struct lockdep_map *lock, unsigned int subclass, 31628eddac3fSPeter Zijlstra int trylock, int read, int check, int hardirqs_off, 31638eddac3fSPeter Zijlstra struct lockdep_map *nest_lock, unsigned long ip, 316421199f27SPeter Zijlstra int references, int pin_count) 31658eddac3fSPeter Zijlstra { 31668eddac3fSPeter Zijlstra struct task_struct *curr = current; 31678eddac3fSPeter Zijlstra struct lock_class *class = NULL; 31688eddac3fSPeter Zijlstra struct held_lock *hlock; 31695f18ab5cSAlfredo Alvarez Fernandez unsigned int depth; 31708eddac3fSPeter Zijlstra int chain_head = 0; 31718eddac3fSPeter Zijlstra int class_idx; 31728eddac3fSPeter Zijlstra u64 chain_key; 31738eddac3fSPeter Zijlstra 31748eddac3fSPeter Zijlstra if (unlikely(!debug_locks)) 31758eddac3fSPeter Zijlstra return 0; 31768eddac3fSPeter Zijlstra 31778eddac3fSPeter Zijlstra /* 31788eddac3fSPeter Zijlstra * Lockdep should run with IRQs disabled, otherwise we could 31798eddac3fSPeter Zijlstra * get an interrupt which would want to take locks, which would 31808eddac3fSPeter Zijlstra * end up in lockdep and have you got a head-ache already? 31818eddac3fSPeter Zijlstra */ 31828eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!irqs_disabled())) 31838eddac3fSPeter Zijlstra return 0; 31848eddac3fSPeter Zijlstra 3185fb9edbe9SOleg Nesterov if (!prove_locking || lock->key == &__lockdep_no_validate__) 3186fb9edbe9SOleg Nesterov check = 0; 31878eddac3fSPeter Zijlstra 31888eddac3fSPeter Zijlstra if (subclass < NR_LOCKDEP_CACHING_CLASSES) 31898eddac3fSPeter Zijlstra class = lock->class_cache[subclass]; 31908eddac3fSPeter Zijlstra /* 31918eddac3fSPeter Zijlstra * Not cached? 31928eddac3fSPeter Zijlstra */ 31938eddac3fSPeter Zijlstra if (unlikely(!class)) { 31948eddac3fSPeter Zijlstra class = register_lock_class(lock, subclass, 0); 31958eddac3fSPeter Zijlstra if (!class) 31968eddac3fSPeter Zijlstra return 0; 31978eddac3fSPeter Zijlstra } 31988eddac3fSPeter Zijlstra atomic_inc((atomic_t *)&class->ops); 31998eddac3fSPeter Zijlstra if (very_verbose(class)) { 32008eddac3fSPeter Zijlstra printk("\nacquire class [%p] %s", class->key, class->name); 32018eddac3fSPeter Zijlstra if (class->name_version > 1) 32028eddac3fSPeter Zijlstra printk("#%d", class->name_version); 32038eddac3fSPeter Zijlstra printk("\n"); 32048eddac3fSPeter Zijlstra dump_stack(); 32058eddac3fSPeter Zijlstra } 32068eddac3fSPeter Zijlstra 32078eddac3fSPeter Zijlstra /* 32088eddac3fSPeter Zijlstra * Add the lock to the list of currently held locks. 32098eddac3fSPeter Zijlstra * (we dont increase the depth just yet, up until the 32108eddac3fSPeter Zijlstra * dependency checks are done) 32118eddac3fSPeter Zijlstra */ 32128eddac3fSPeter Zijlstra depth = curr->lockdep_depth; 32138eddac3fSPeter Zijlstra /* 32148eddac3fSPeter Zijlstra * Ran out of static storage for our per-task lock stack again have we? 32158eddac3fSPeter Zijlstra */ 32168eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(depth >= MAX_LOCK_DEPTH)) 32178eddac3fSPeter Zijlstra return 0; 32188eddac3fSPeter Zijlstra 32198eddac3fSPeter Zijlstra class_idx = class - lock_classes + 1; 32208eddac3fSPeter Zijlstra 32218eddac3fSPeter Zijlstra if (depth) { 32228eddac3fSPeter Zijlstra hlock = curr->held_locks + depth - 1; 32238eddac3fSPeter Zijlstra if (hlock->class_idx == class_idx && nest_lock) { 32248eddac3fSPeter Zijlstra if (hlock->references) 32258eddac3fSPeter Zijlstra hlock->references++; 32268eddac3fSPeter Zijlstra else 32278eddac3fSPeter Zijlstra hlock->references = 2; 32288eddac3fSPeter Zijlstra 32298eddac3fSPeter Zijlstra return 1; 32308eddac3fSPeter Zijlstra } 32318eddac3fSPeter Zijlstra } 32328eddac3fSPeter Zijlstra 32338eddac3fSPeter Zijlstra hlock = curr->held_locks + depth; 32348eddac3fSPeter Zijlstra /* 32358eddac3fSPeter Zijlstra * Plain impossible, we just registered it and checked it weren't no 32368eddac3fSPeter Zijlstra * NULL like.. I bet this mushroom I ate was good! 32378eddac3fSPeter Zijlstra */ 32388eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!class)) 32398eddac3fSPeter Zijlstra return 0; 32408eddac3fSPeter Zijlstra hlock->class_idx = class_idx; 32418eddac3fSPeter Zijlstra hlock->acquire_ip = ip; 32428eddac3fSPeter Zijlstra hlock->instance = lock; 32438eddac3fSPeter Zijlstra hlock->nest_lock = nest_lock; 32448eddac3fSPeter Zijlstra hlock->trylock = trylock; 32458eddac3fSPeter Zijlstra hlock->read = read; 32468eddac3fSPeter Zijlstra hlock->check = check; 32478eddac3fSPeter Zijlstra hlock->hardirqs_off = !!hardirqs_off; 32488eddac3fSPeter Zijlstra hlock->references = references; 32498eddac3fSPeter Zijlstra #ifdef CONFIG_LOCK_STAT 32508eddac3fSPeter Zijlstra hlock->waittime_stamp = 0; 32518eddac3fSPeter Zijlstra hlock->holdtime_stamp = lockstat_clock(); 32528eddac3fSPeter Zijlstra #endif 325321199f27SPeter Zijlstra hlock->pin_count = pin_count; 32548eddac3fSPeter Zijlstra 3255fb9edbe9SOleg Nesterov if (check && !mark_irqflags(curr, hlock)) 32568eddac3fSPeter Zijlstra return 0; 32578eddac3fSPeter Zijlstra 32588eddac3fSPeter Zijlstra /* mark it as used: */ 32598eddac3fSPeter Zijlstra if (!mark_lock(curr, hlock, LOCK_USED)) 32608eddac3fSPeter Zijlstra return 0; 32618eddac3fSPeter Zijlstra 32628eddac3fSPeter Zijlstra /* 32638eddac3fSPeter Zijlstra * Calculate the chain hash: it's the combined hash of all the 32648eddac3fSPeter Zijlstra * lock keys along the dependency chain. We save the hash value 32658eddac3fSPeter Zijlstra * at every step so that we can get the current hash easily 32668eddac3fSPeter Zijlstra * after unlock. The chain hash is then used to cache dependency 32678eddac3fSPeter Zijlstra * results. 32688eddac3fSPeter Zijlstra * 32698eddac3fSPeter Zijlstra * The 'key ID' is what is the most compact key value to drive 32708eddac3fSPeter Zijlstra * the hash, not class->key. 32718eddac3fSPeter Zijlstra */ 32728eddac3fSPeter Zijlstra /* 32738eddac3fSPeter Zijlstra * Whoops, we did it again.. ran straight out of our static allocation. 32748eddac3fSPeter Zijlstra */ 32755f18ab5cSAlfredo Alvarez Fernandez if (DEBUG_LOCKS_WARN_ON(class_idx > MAX_LOCKDEP_KEYS)) 32768eddac3fSPeter Zijlstra return 0; 32778eddac3fSPeter Zijlstra 32788eddac3fSPeter Zijlstra chain_key = curr->curr_chain_key; 32798eddac3fSPeter Zijlstra if (!depth) { 32808eddac3fSPeter Zijlstra /* 32818eddac3fSPeter Zijlstra * How can we have a chain hash when we ain't got no keys?! 32828eddac3fSPeter Zijlstra */ 32838eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(chain_key != 0)) 32848eddac3fSPeter Zijlstra return 0; 32858eddac3fSPeter Zijlstra chain_head = 1; 32868eddac3fSPeter Zijlstra } 32878eddac3fSPeter Zijlstra 32888eddac3fSPeter Zijlstra hlock->prev_chain_key = chain_key; 32898eddac3fSPeter Zijlstra if (separate_irq_context(curr, hlock)) { 32908eddac3fSPeter Zijlstra chain_key = 0; 32918eddac3fSPeter Zijlstra chain_head = 1; 32928eddac3fSPeter Zijlstra } 32935f18ab5cSAlfredo Alvarez Fernandez chain_key = iterate_chain_key(chain_key, class_idx); 32948eddac3fSPeter Zijlstra 32958eddac3fSPeter Zijlstra if (nest_lock && !__lock_is_held(nest_lock)) 32968eddac3fSPeter Zijlstra return print_lock_nested_lock_not_held(curr, hlock, ip); 32978eddac3fSPeter Zijlstra 32988eddac3fSPeter Zijlstra if (!validate_chain(curr, lock, hlock, chain_head, chain_key)) 32998eddac3fSPeter Zijlstra return 0; 33008eddac3fSPeter Zijlstra 33018eddac3fSPeter Zijlstra curr->curr_chain_key = chain_key; 33028eddac3fSPeter Zijlstra curr->lockdep_depth++; 33038eddac3fSPeter Zijlstra check_chain_key(curr); 33048eddac3fSPeter Zijlstra #ifdef CONFIG_DEBUG_LOCKDEP 33058eddac3fSPeter Zijlstra if (unlikely(!debug_locks)) 33068eddac3fSPeter Zijlstra return 0; 33078eddac3fSPeter Zijlstra #endif 33088eddac3fSPeter Zijlstra if (unlikely(curr->lockdep_depth >= MAX_LOCK_DEPTH)) { 33098eddac3fSPeter Zijlstra debug_locks_off(); 33108eddac3fSPeter Zijlstra print_lockdep_off("BUG: MAX_LOCK_DEPTH too low!"); 33118eddac3fSPeter Zijlstra printk(KERN_DEBUG "depth: %i max: %lu!\n", 33128eddac3fSPeter Zijlstra curr->lockdep_depth, MAX_LOCK_DEPTH); 33138eddac3fSPeter Zijlstra 33148eddac3fSPeter Zijlstra lockdep_print_held_locks(current); 33158eddac3fSPeter Zijlstra debug_show_all_locks(); 33168eddac3fSPeter Zijlstra dump_stack(); 33178eddac3fSPeter Zijlstra 33188eddac3fSPeter Zijlstra return 0; 33198eddac3fSPeter Zijlstra } 33208eddac3fSPeter Zijlstra 33218eddac3fSPeter Zijlstra if (unlikely(curr->lockdep_depth > max_lockdep_depth)) 33228eddac3fSPeter Zijlstra max_lockdep_depth = curr->lockdep_depth; 33238eddac3fSPeter Zijlstra 33248eddac3fSPeter Zijlstra return 1; 33258eddac3fSPeter Zijlstra } 33268eddac3fSPeter Zijlstra 33278eddac3fSPeter Zijlstra static int 33288eddac3fSPeter Zijlstra print_unlock_imbalance_bug(struct task_struct *curr, struct lockdep_map *lock, 33298eddac3fSPeter Zijlstra unsigned long ip) 33308eddac3fSPeter Zijlstra { 33318eddac3fSPeter Zijlstra if (!debug_locks_off()) 33328eddac3fSPeter Zijlstra return 0; 33338eddac3fSPeter Zijlstra if (debug_locks_silent) 33348eddac3fSPeter Zijlstra return 0; 33358eddac3fSPeter Zijlstra 33368eddac3fSPeter Zijlstra printk("\n"); 33378eddac3fSPeter Zijlstra printk("=====================================\n"); 33388eddac3fSPeter Zijlstra printk("[ BUG: bad unlock balance detected! ]\n"); 33398eddac3fSPeter Zijlstra print_kernel_ident(); 33408eddac3fSPeter Zijlstra printk("-------------------------------------\n"); 33418eddac3fSPeter Zijlstra printk("%s/%d is trying to release lock (", 33428eddac3fSPeter Zijlstra curr->comm, task_pid_nr(curr)); 33438eddac3fSPeter Zijlstra print_lockdep_cache(lock); 33448eddac3fSPeter Zijlstra printk(") at:\n"); 33458eddac3fSPeter Zijlstra print_ip_sym(ip); 33468eddac3fSPeter Zijlstra printk("but there are no more locks to release!\n"); 33478eddac3fSPeter Zijlstra printk("\nother info that might help us debug this:\n"); 33488eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 33498eddac3fSPeter Zijlstra 33508eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 33518eddac3fSPeter Zijlstra dump_stack(); 33528eddac3fSPeter Zijlstra 33538eddac3fSPeter Zijlstra return 0; 33548eddac3fSPeter Zijlstra } 33558eddac3fSPeter Zijlstra 33568eddac3fSPeter Zijlstra static int match_held_lock(struct held_lock *hlock, struct lockdep_map *lock) 33578eddac3fSPeter Zijlstra { 33588eddac3fSPeter Zijlstra if (hlock->instance == lock) 33598eddac3fSPeter Zijlstra return 1; 33608eddac3fSPeter Zijlstra 33618eddac3fSPeter Zijlstra if (hlock->references) { 33628eddac3fSPeter Zijlstra struct lock_class *class = lock->class_cache[0]; 33638eddac3fSPeter Zijlstra 33648eddac3fSPeter Zijlstra if (!class) 33658eddac3fSPeter Zijlstra class = look_up_lock_class(lock, 0); 33668eddac3fSPeter Zijlstra 33678eddac3fSPeter Zijlstra /* 33688eddac3fSPeter Zijlstra * If look_up_lock_class() failed to find a class, we're trying 33698eddac3fSPeter Zijlstra * to test if we hold a lock that has never yet been acquired. 33708eddac3fSPeter Zijlstra * Clearly if the lock hasn't been acquired _ever_, we're not 33718eddac3fSPeter Zijlstra * holding it either, so report failure. 33728eddac3fSPeter Zijlstra */ 33738eddac3fSPeter Zijlstra if (!class) 33748eddac3fSPeter Zijlstra return 0; 33758eddac3fSPeter Zijlstra 33768eddac3fSPeter Zijlstra /* 33778eddac3fSPeter Zijlstra * References, but not a lock we're actually ref-counting? 33788eddac3fSPeter Zijlstra * State got messed up, follow the sites that change ->references 33798eddac3fSPeter Zijlstra * and try to make sense of it. 33808eddac3fSPeter Zijlstra */ 33818eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!hlock->nest_lock)) 33828eddac3fSPeter Zijlstra return 0; 33838eddac3fSPeter Zijlstra 33848eddac3fSPeter Zijlstra if (hlock->class_idx == class - lock_classes + 1) 33858eddac3fSPeter Zijlstra return 1; 33868eddac3fSPeter Zijlstra } 33878eddac3fSPeter Zijlstra 33888eddac3fSPeter Zijlstra return 0; 33898eddac3fSPeter Zijlstra } 33908eddac3fSPeter Zijlstra 33918eddac3fSPeter Zijlstra static int 33928eddac3fSPeter Zijlstra __lock_set_class(struct lockdep_map *lock, const char *name, 33938eddac3fSPeter Zijlstra struct lock_class_key *key, unsigned int subclass, 33948eddac3fSPeter Zijlstra unsigned long ip) 33958eddac3fSPeter Zijlstra { 33968eddac3fSPeter Zijlstra struct task_struct *curr = current; 33978eddac3fSPeter Zijlstra struct held_lock *hlock, *prev_hlock; 33988eddac3fSPeter Zijlstra struct lock_class *class; 33998eddac3fSPeter Zijlstra unsigned int depth; 34008eddac3fSPeter Zijlstra int i; 34018eddac3fSPeter Zijlstra 34028eddac3fSPeter Zijlstra depth = curr->lockdep_depth; 34038eddac3fSPeter Zijlstra /* 34048eddac3fSPeter Zijlstra * This function is about (re)setting the class of a held lock, 34058eddac3fSPeter Zijlstra * yet we're not actually holding any locks. Naughty user! 34068eddac3fSPeter Zijlstra */ 34078eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!depth)) 34088eddac3fSPeter Zijlstra return 0; 34098eddac3fSPeter Zijlstra 34108eddac3fSPeter Zijlstra prev_hlock = NULL; 34118eddac3fSPeter Zijlstra for (i = depth-1; i >= 0; i--) { 34128eddac3fSPeter Zijlstra hlock = curr->held_locks + i; 34138eddac3fSPeter Zijlstra /* 34148eddac3fSPeter Zijlstra * We must not cross into another context: 34158eddac3fSPeter Zijlstra */ 34168eddac3fSPeter Zijlstra if (prev_hlock && prev_hlock->irq_context != hlock->irq_context) 34178eddac3fSPeter Zijlstra break; 34188eddac3fSPeter Zijlstra if (match_held_lock(hlock, lock)) 34198eddac3fSPeter Zijlstra goto found_it; 34208eddac3fSPeter Zijlstra prev_hlock = hlock; 34218eddac3fSPeter Zijlstra } 34228eddac3fSPeter Zijlstra return print_unlock_imbalance_bug(curr, lock, ip); 34238eddac3fSPeter Zijlstra 34248eddac3fSPeter Zijlstra found_it: 34258eddac3fSPeter Zijlstra lockdep_init_map(lock, name, key, 0); 34268eddac3fSPeter Zijlstra class = register_lock_class(lock, subclass, 0); 34278eddac3fSPeter Zijlstra hlock->class_idx = class - lock_classes + 1; 34288eddac3fSPeter Zijlstra 34298eddac3fSPeter Zijlstra curr->lockdep_depth = i; 34308eddac3fSPeter Zijlstra curr->curr_chain_key = hlock->prev_chain_key; 34318eddac3fSPeter Zijlstra 34328eddac3fSPeter Zijlstra for (; i < depth; i++) { 34338eddac3fSPeter Zijlstra hlock = curr->held_locks + i; 34348eddac3fSPeter Zijlstra if (!__lock_acquire(hlock->instance, 34358eddac3fSPeter Zijlstra hlock_class(hlock)->subclass, hlock->trylock, 34368eddac3fSPeter Zijlstra hlock->read, hlock->check, hlock->hardirqs_off, 34378eddac3fSPeter Zijlstra hlock->nest_lock, hlock->acquire_ip, 343821199f27SPeter Zijlstra hlock->references, hlock->pin_count)) 34398eddac3fSPeter Zijlstra return 0; 34408eddac3fSPeter Zijlstra } 34418eddac3fSPeter Zijlstra 34428eddac3fSPeter Zijlstra /* 34438eddac3fSPeter Zijlstra * I took it apart and put it back together again, except now I have 34448eddac3fSPeter Zijlstra * these 'spare' parts.. where shall I put them. 34458eddac3fSPeter Zijlstra */ 34468eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(curr->lockdep_depth != depth)) 34478eddac3fSPeter Zijlstra return 0; 34488eddac3fSPeter Zijlstra return 1; 34498eddac3fSPeter Zijlstra } 34508eddac3fSPeter Zijlstra 34518eddac3fSPeter Zijlstra /* 3452e0f56fd7SPeter Zijlstra * Remove the lock to the list of currently held locks - this gets 3453e0f56fd7SPeter Zijlstra * called on mutex_unlock()/spin_unlock*() (or on a failed 3454e0f56fd7SPeter Zijlstra * mutex_lock_interruptible()). 3455e0f56fd7SPeter Zijlstra * 3456e0f56fd7SPeter Zijlstra * @nested is an hysterical artifact, needs a tree wide cleanup. 34578eddac3fSPeter Zijlstra */ 34588eddac3fSPeter Zijlstra static int 3459e0f56fd7SPeter Zijlstra __lock_release(struct lockdep_map *lock, int nested, unsigned long ip) 34608eddac3fSPeter Zijlstra { 3461e0f56fd7SPeter Zijlstra struct task_struct *curr = current; 34628eddac3fSPeter Zijlstra struct held_lock *hlock, *prev_hlock; 34638eddac3fSPeter Zijlstra unsigned int depth; 34648eddac3fSPeter Zijlstra int i; 34658eddac3fSPeter Zijlstra 3466e0f56fd7SPeter Zijlstra if (unlikely(!debug_locks)) 3467e0f56fd7SPeter Zijlstra return 0; 3468e0f56fd7SPeter Zijlstra 34698eddac3fSPeter Zijlstra depth = curr->lockdep_depth; 34708eddac3fSPeter Zijlstra /* 34718eddac3fSPeter Zijlstra * So we're all set to release this lock.. wait what lock? We don't 34728eddac3fSPeter Zijlstra * own any locks, you've been drinking again? 34738eddac3fSPeter Zijlstra */ 3474e0f56fd7SPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(depth <= 0)) 3475e0f56fd7SPeter Zijlstra return print_unlock_imbalance_bug(curr, lock, ip); 34768eddac3fSPeter Zijlstra 3477e0f56fd7SPeter Zijlstra /* 3478e0f56fd7SPeter Zijlstra * Check whether the lock exists in the current stack 3479e0f56fd7SPeter Zijlstra * of held locks: 3480e0f56fd7SPeter Zijlstra */ 34818eddac3fSPeter Zijlstra prev_hlock = NULL; 34828eddac3fSPeter Zijlstra for (i = depth-1; i >= 0; i--) { 34838eddac3fSPeter Zijlstra hlock = curr->held_locks + i; 34848eddac3fSPeter Zijlstra /* 34858eddac3fSPeter Zijlstra * We must not cross into another context: 34868eddac3fSPeter Zijlstra */ 34878eddac3fSPeter Zijlstra if (prev_hlock && prev_hlock->irq_context != hlock->irq_context) 34888eddac3fSPeter Zijlstra break; 34898eddac3fSPeter Zijlstra if (match_held_lock(hlock, lock)) 34908eddac3fSPeter Zijlstra goto found_it; 34918eddac3fSPeter Zijlstra prev_hlock = hlock; 34928eddac3fSPeter Zijlstra } 34938eddac3fSPeter Zijlstra return print_unlock_imbalance_bug(curr, lock, ip); 34948eddac3fSPeter Zijlstra 34958eddac3fSPeter Zijlstra found_it: 34968eddac3fSPeter Zijlstra if (hlock->instance == lock) 34978eddac3fSPeter Zijlstra lock_release_holdtime(hlock); 34988eddac3fSPeter Zijlstra 3499a24fc60dSPeter Zijlstra WARN(hlock->pin_count, "releasing a pinned lock\n"); 3500a24fc60dSPeter Zijlstra 35018eddac3fSPeter Zijlstra if (hlock->references) { 35028eddac3fSPeter Zijlstra hlock->references--; 35038eddac3fSPeter Zijlstra if (hlock->references) { 35048eddac3fSPeter Zijlstra /* 35058eddac3fSPeter Zijlstra * We had, and after removing one, still have 35068eddac3fSPeter Zijlstra * references, the current lock stack is still 35078eddac3fSPeter Zijlstra * valid. We're done! 35088eddac3fSPeter Zijlstra */ 35098eddac3fSPeter Zijlstra return 1; 35108eddac3fSPeter Zijlstra } 35118eddac3fSPeter Zijlstra } 35128eddac3fSPeter Zijlstra 35138eddac3fSPeter Zijlstra /* 35148eddac3fSPeter Zijlstra * We have the right lock to unlock, 'hlock' points to it. 35158eddac3fSPeter Zijlstra * Now we remove it from the stack, and add back the other 35168eddac3fSPeter Zijlstra * entries (if any), recalculating the hash along the way: 35178eddac3fSPeter Zijlstra */ 35188eddac3fSPeter Zijlstra 35198eddac3fSPeter Zijlstra curr->lockdep_depth = i; 35208eddac3fSPeter Zijlstra curr->curr_chain_key = hlock->prev_chain_key; 35218eddac3fSPeter Zijlstra 35228eddac3fSPeter Zijlstra for (i++; i < depth; i++) { 35238eddac3fSPeter Zijlstra hlock = curr->held_locks + i; 35248eddac3fSPeter Zijlstra if (!__lock_acquire(hlock->instance, 35258eddac3fSPeter Zijlstra hlock_class(hlock)->subclass, hlock->trylock, 35268eddac3fSPeter Zijlstra hlock->read, hlock->check, hlock->hardirqs_off, 35278eddac3fSPeter Zijlstra hlock->nest_lock, hlock->acquire_ip, 352821199f27SPeter Zijlstra hlock->references, hlock->pin_count)) 35298eddac3fSPeter Zijlstra return 0; 35308eddac3fSPeter Zijlstra } 35318eddac3fSPeter Zijlstra 35328eddac3fSPeter Zijlstra /* 35338eddac3fSPeter Zijlstra * We had N bottles of beer on the wall, we drank one, but now 35348eddac3fSPeter Zijlstra * there's not N-1 bottles of beer left on the wall... 35358eddac3fSPeter Zijlstra */ 35368eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(curr->lockdep_depth != depth - 1)) 35378eddac3fSPeter Zijlstra return 0; 3538e0f56fd7SPeter Zijlstra 35398eddac3fSPeter Zijlstra return 1; 35408eddac3fSPeter Zijlstra } 35418eddac3fSPeter Zijlstra 35428eddac3fSPeter Zijlstra static int __lock_is_held(struct lockdep_map *lock) 35438eddac3fSPeter Zijlstra { 35448eddac3fSPeter Zijlstra struct task_struct *curr = current; 35458eddac3fSPeter Zijlstra int i; 35468eddac3fSPeter Zijlstra 35478eddac3fSPeter Zijlstra for (i = 0; i < curr->lockdep_depth; i++) { 35488eddac3fSPeter Zijlstra struct held_lock *hlock = curr->held_locks + i; 35498eddac3fSPeter Zijlstra 35508eddac3fSPeter Zijlstra if (match_held_lock(hlock, lock)) 35518eddac3fSPeter Zijlstra return 1; 35528eddac3fSPeter Zijlstra } 35538eddac3fSPeter Zijlstra 35548eddac3fSPeter Zijlstra return 0; 35558eddac3fSPeter Zijlstra } 35568eddac3fSPeter Zijlstra 3557a24fc60dSPeter Zijlstra static void __lock_pin_lock(struct lockdep_map *lock) 3558a24fc60dSPeter Zijlstra { 3559a24fc60dSPeter Zijlstra struct task_struct *curr = current; 3560a24fc60dSPeter Zijlstra int i; 3561a24fc60dSPeter Zijlstra 3562a24fc60dSPeter Zijlstra if (unlikely(!debug_locks)) 3563a24fc60dSPeter Zijlstra return; 3564a24fc60dSPeter Zijlstra 3565a24fc60dSPeter Zijlstra for (i = 0; i < curr->lockdep_depth; i++) { 3566a24fc60dSPeter Zijlstra struct held_lock *hlock = curr->held_locks + i; 3567a24fc60dSPeter Zijlstra 3568a24fc60dSPeter Zijlstra if (match_held_lock(hlock, lock)) { 3569a24fc60dSPeter Zijlstra hlock->pin_count++; 3570a24fc60dSPeter Zijlstra return; 3571a24fc60dSPeter Zijlstra } 3572a24fc60dSPeter Zijlstra } 3573a24fc60dSPeter Zijlstra 3574a24fc60dSPeter Zijlstra WARN(1, "pinning an unheld lock\n"); 3575a24fc60dSPeter Zijlstra } 3576a24fc60dSPeter Zijlstra 3577a24fc60dSPeter Zijlstra static void __lock_unpin_lock(struct lockdep_map *lock) 3578a24fc60dSPeter Zijlstra { 3579a24fc60dSPeter Zijlstra struct task_struct *curr = current; 3580a24fc60dSPeter Zijlstra int i; 3581a24fc60dSPeter Zijlstra 3582a24fc60dSPeter Zijlstra if (unlikely(!debug_locks)) 3583a24fc60dSPeter Zijlstra return; 3584a24fc60dSPeter Zijlstra 3585a24fc60dSPeter Zijlstra for (i = 0; i < curr->lockdep_depth; i++) { 3586a24fc60dSPeter Zijlstra struct held_lock *hlock = curr->held_locks + i; 3587a24fc60dSPeter Zijlstra 3588a24fc60dSPeter Zijlstra if (match_held_lock(hlock, lock)) { 3589a24fc60dSPeter Zijlstra if (WARN(!hlock->pin_count, "unpinning an unpinned lock\n")) 3590a24fc60dSPeter Zijlstra return; 3591a24fc60dSPeter Zijlstra 3592a24fc60dSPeter Zijlstra hlock->pin_count--; 3593a24fc60dSPeter Zijlstra return; 3594a24fc60dSPeter Zijlstra } 3595a24fc60dSPeter Zijlstra } 3596a24fc60dSPeter Zijlstra 3597a24fc60dSPeter Zijlstra WARN(1, "unpinning an unheld lock\n"); 3598a24fc60dSPeter Zijlstra } 3599a24fc60dSPeter Zijlstra 36008eddac3fSPeter Zijlstra /* 36018eddac3fSPeter Zijlstra * Check whether we follow the irq-flags state precisely: 36028eddac3fSPeter Zijlstra */ 36038eddac3fSPeter Zijlstra static void check_flags(unsigned long flags) 36048eddac3fSPeter Zijlstra { 36058eddac3fSPeter Zijlstra #if defined(CONFIG_PROVE_LOCKING) && defined(CONFIG_DEBUG_LOCKDEP) && \ 36068eddac3fSPeter Zijlstra defined(CONFIG_TRACE_IRQFLAGS) 36078eddac3fSPeter Zijlstra if (!debug_locks) 36088eddac3fSPeter Zijlstra return; 36098eddac3fSPeter Zijlstra 36108eddac3fSPeter Zijlstra if (irqs_disabled_flags(flags)) { 36118eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(current->hardirqs_enabled)) { 36128eddac3fSPeter Zijlstra printk("possible reason: unannotated irqs-off.\n"); 36138eddac3fSPeter Zijlstra } 36148eddac3fSPeter Zijlstra } else { 36158eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!current->hardirqs_enabled)) { 36168eddac3fSPeter Zijlstra printk("possible reason: unannotated irqs-on.\n"); 36178eddac3fSPeter Zijlstra } 36188eddac3fSPeter Zijlstra } 36198eddac3fSPeter Zijlstra 36208eddac3fSPeter Zijlstra /* 36218eddac3fSPeter Zijlstra * We dont accurately track softirq state in e.g. 36228eddac3fSPeter Zijlstra * hardirq contexts (such as on 4KSTACKS), so only 36238eddac3fSPeter Zijlstra * check if not in hardirq contexts: 36248eddac3fSPeter Zijlstra */ 36258eddac3fSPeter Zijlstra if (!hardirq_count()) { 36268eddac3fSPeter Zijlstra if (softirq_count()) { 36278eddac3fSPeter Zijlstra /* like the above, but with softirqs */ 36288eddac3fSPeter Zijlstra DEBUG_LOCKS_WARN_ON(current->softirqs_enabled); 36298eddac3fSPeter Zijlstra } else { 36308eddac3fSPeter Zijlstra /* lick the above, does it taste good? */ 36318eddac3fSPeter Zijlstra DEBUG_LOCKS_WARN_ON(!current->softirqs_enabled); 36328eddac3fSPeter Zijlstra } 36338eddac3fSPeter Zijlstra } 36348eddac3fSPeter Zijlstra 36358eddac3fSPeter Zijlstra if (!debug_locks) 36368eddac3fSPeter Zijlstra print_irqtrace_events(current); 36378eddac3fSPeter Zijlstra #endif 36388eddac3fSPeter Zijlstra } 36398eddac3fSPeter Zijlstra 36408eddac3fSPeter Zijlstra void lock_set_class(struct lockdep_map *lock, const char *name, 36418eddac3fSPeter Zijlstra struct lock_class_key *key, unsigned int subclass, 36428eddac3fSPeter Zijlstra unsigned long ip) 36438eddac3fSPeter Zijlstra { 36448eddac3fSPeter Zijlstra unsigned long flags; 36458eddac3fSPeter Zijlstra 36468eddac3fSPeter Zijlstra if (unlikely(current->lockdep_recursion)) 36478eddac3fSPeter Zijlstra return; 36488eddac3fSPeter Zijlstra 36498eddac3fSPeter Zijlstra raw_local_irq_save(flags); 36508eddac3fSPeter Zijlstra current->lockdep_recursion = 1; 36518eddac3fSPeter Zijlstra check_flags(flags); 36528eddac3fSPeter Zijlstra if (__lock_set_class(lock, name, key, subclass, ip)) 36538eddac3fSPeter Zijlstra check_chain_key(current); 36548eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 36558eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 36568eddac3fSPeter Zijlstra } 36578eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(lock_set_class); 36588eddac3fSPeter Zijlstra 36598eddac3fSPeter Zijlstra /* 36608eddac3fSPeter Zijlstra * We are not always called with irqs disabled - do that here, 36618eddac3fSPeter Zijlstra * and also avoid lockdep recursion: 36628eddac3fSPeter Zijlstra */ 36638eddac3fSPeter Zijlstra void lock_acquire(struct lockdep_map *lock, unsigned int subclass, 36648eddac3fSPeter Zijlstra int trylock, int read, int check, 36658eddac3fSPeter Zijlstra struct lockdep_map *nest_lock, unsigned long ip) 36668eddac3fSPeter Zijlstra { 36678eddac3fSPeter Zijlstra unsigned long flags; 36688eddac3fSPeter Zijlstra 36698eddac3fSPeter Zijlstra if (unlikely(current->lockdep_recursion)) 36708eddac3fSPeter Zijlstra return; 36718eddac3fSPeter Zijlstra 36728eddac3fSPeter Zijlstra raw_local_irq_save(flags); 36738eddac3fSPeter Zijlstra check_flags(flags); 36748eddac3fSPeter Zijlstra 36758eddac3fSPeter Zijlstra current->lockdep_recursion = 1; 36768eddac3fSPeter Zijlstra trace_lock_acquire(lock, subclass, trylock, read, check, nest_lock, ip); 36778eddac3fSPeter Zijlstra __lock_acquire(lock, subclass, trylock, read, check, 367821199f27SPeter Zijlstra irqs_disabled_flags(flags), nest_lock, ip, 0, 0); 36798eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 36808eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 36818eddac3fSPeter Zijlstra } 36828eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(lock_acquire); 36838eddac3fSPeter Zijlstra 36848eddac3fSPeter Zijlstra void lock_release(struct lockdep_map *lock, int nested, 36858eddac3fSPeter Zijlstra unsigned long ip) 36868eddac3fSPeter Zijlstra { 36878eddac3fSPeter Zijlstra unsigned long flags; 36888eddac3fSPeter Zijlstra 36898eddac3fSPeter Zijlstra if (unlikely(current->lockdep_recursion)) 36908eddac3fSPeter Zijlstra return; 36918eddac3fSPeter Zijlstra 36928eddac3fSPeter Zijlstra raw_local_irq_save(flags); 36938eddac3fSPeter Zijlstra check_flags(flags); 36948eddac3fSPeter Zijlstra current->lockdep_recursion = 1; 36958eddac3fSPeter Zijlstra trace_lock_release(lock, ip); 3696e0f56fd7SPeter Zijlstra if (__lock_release(lock, nested, ip)) 3697e0f56fd7SPeter Zijlstra check_chain_key(current); 36988eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 36998eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 37008eddac3fSPeter Zijlstra } 37018eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(lock_release); 37028eddac3fSPeter Zijlstra 37038eddac3fSPeter Zijlstra int lock_is_held(struct lockdep_map *lock) 37048eddac3fSPeter Zijlstra { 37058eddac3fSPeter Zijlstra unsigned long flags; 37068eddac3fSPeter Zijlstra int ret = 0; 37078eddac3fSPeter Zijlstra 37088eddac3fSPeter Zijlstra if (unlikely(current->lockdep_recursion)) 37098eddac3fSPeter Zijlstra return 1; /* avoid false negative lockdep_assert_held() */ 37108eddac3fSPeter Zijlstra 37118eddac3fSPeter Zijlstra raw_local_irq_save(flags); 37128eddac3fSPeter Zijlstra check_flags(flags); 37138eddac3fSPeter Zijlstra 37148eddac3fSPeter Zijlstra current->lockdep_recursion = 1; 37158eddac3fSPeter Zijlstra ret = __lock_is_held(lock); 37168eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 37178eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 37188eddac3fSPeter Zijlstra 37198eddac3fSPeter Zijlstra return ret; 37208eddac3fSPeter Zijlstra } 37218eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(lock_is_held); 37228eddac3fSPeter Zijlstra 3723a24fc60dSPeter Zijlstra void lock_pin_lock(struct lockdep_map *lock) 3724a24fc60dSPeter Zijlstra { 3725a24fc60dSPeter Zijlstra unsigned long flags; 3726a24fc60dSPeter Zijlstra 3727a24fc60dSPeter Zijlstra if (unlikely(current->lockdep_recursion)) 3728a24fc60dSPeter Zijlstra return; 3729a24fc60dSPeter Zijlstra 3730a24fc60dSPeter Zijlstra raw_local_irq_save(flags); 3731a24fc60dSPeter Zijlstra check_flags(flags); 3732a24fc60dSPeter Zijlstra 3733a24fc60dSPeter Zijlstra current->lockdep_recursion = 1; 3734a24fc60dSPeter Zijlstra __lock_pin_lock(lock); 3735a24fc60dSPeter Zijlstra current->lockdep_recursion = 0; 3736a24fc60dSPeter Zijlstra raw_local_irq_restore(flags); 3737a24fc60dSPeter Zijlstra } 3738a24fc60dSPeter Zijlstra EXPORT_SYMBOL_GPL(lock_pin_lock); 3739a24fc60dSPeter Zijlstra 3740a24fc60dSPeter Zijlstra void lock_unpin_lock(struct lockdep_map *lock) 3741a24fc60dSPeter Zijlstra { 3742a24fc60dSPeter Zijlstra unsigned long flags; 3743a24fc60dSPeter Zijlstra 3744a24fc60dSPeter Zijlstra if (unlikely(current->lockdep_recursion)) 3745a24fc60dSPeter Zijlstra return; 3746a24fc60dSPeter Zijlstra 3747a24fc60dSPeter Zijlstra raw_local_irq_save(flags); 3748a24fc60dSPeter Zijlstra check_flags(flags); 3749a24fc60dSPeter Zijlstra 3750a24fc60dSPeter Zijlstra current->lockdep_recursion = 1; 3751a24fc60dSPeter Zijlstra __lock_unpin_lock(lock); 3752a24fc60dSPeter Zijlstra current->lockdep_recursion = 0; 3753a24fc60dSPeter Zijlstra raw_local_irq_restore(flags); 3754a24fc60dSPeter Zijlstra } 3755a24fc60dSPeter Zijlstra EXPORT_SYMBOL_GPL(lock_unpin_lock); 3756a24fc60dSPeter Zijlstra 37578eddac3fSPeter Zijlstra void lockdep_set_current_reclaim_state(gfp_t gfp_mask) 37588eddac3fSPeter Zijlstra { 37598eddac3fSPeter Zijlstra current->lockdep_reclaim_gfp = gfp_mask; 37608eddac3fSPeter Zijlstra } 37618eddac3fSPeter Zijlstra 37628eddac3fSPeter Zijlstra void lockdep_clear_current_reclaim_state(void) 37638eddac3fSPeter Zijlstra { 37648eddac3fSPeter Zijlstra current->lockdep_reclaim_gfp = 0; 37658eddac3fSPeter Zijlstra } 37668eddac3fSPeter Zijlstra 37678eddac3fSPeter Zijlstra #ifdef CONFIG_LOCK_STAT 37688eddac3fSPeter Zijlstra static int 37698eddac3fSPeter Zijlstra print_lock_contention_bug(struct task_struct *curr, struct lockdep_map *lock, 37708eddac3fSPeter Zijlstra unsigned long ip) 37718eddac3fSPeter Zijlstra { 37728eddac3fSPeter Zijlstra if (!debug_locks_off()) 37738eddac3fSPeter Zijlstra return 0; 37748eddac3fSPeter Zijlstra if (debug_locks_silent) 37758eddac3fSPeter Zijlstra return 0; 37768eddac3fSPeter Zijlstra 37778eddac3fSPeter Zijlstra printk("\n"); 37788eddac3fSPeter Zijlstra printk("=================================\n"); 37798eddac3fSPeter Zijlstra printk("[ BUG: bad contention detected! ]\n"); 37808eddac3fSPeter Zijlstra print_kernel_ident(); 37818eddac3fSPeter Zijlstra printk("---------------------------------\n"); 37828eddac3fSPeter Zijlstra printk("%s/%d is trying to contend lock (", 37838eddac3fSPeter Zijlstra curr->comm, task_pid_nr(curr)); 37848eddac3fSPeter Zijlstra print_lockdep_cache(lock); 37858eddac3fSPeter Zijlstra printk(") at:\n"); 37868eddac3fSPeter Zijlstra print_ip_sym(ip); 37878eddac3fSPeter Zijlstra printk("but there are no locks held!\n"); 37888eddac3fSPeter Zijlstra printk("\nother info that might help us debug this:\n"); 37898eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 37908eddac3fSPeter Zijlstra 37918eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 37928eddac3fSPeter Zijlstra dump_stack(); 37938eddac3fSPeter Zijlstra 37948eddac3fSPeter Zijlstra return 0; 37958eddac3fSPeter Zijlstra } 37968eddac3fSPeter Zijlstra 37978eddac3fSPeter Zijlstra static void 37988eddac3fSPeter Zijlstra __lock_contended(struct lockdep_map *lock, unsigned long ip) 37998eddac3fSPeter Zijlstra { 38008eddac3fSPeter Zijlstra struct task_struct *curr = current; 38018eddac3fSPeter Zijlstra struct held_lock *hlock, *prev_hlock; 38028eddac3fSPeter Zijlstra struct lock_class_stats *stats; 38038eddac3fSPeter Zijlstra unsigned int depth; 38048eddac3fSPeter Zijlstra int i, contention_point, contending_point; 38058eddac3fSPeter Zijlstra 38068eddac3fSPeter Zijlstra depth = curr->lockdep_depth; 38078eddac3fSPeter Zijlstra /* 38088eddac3fSPeter Zijlstra * Whee, we contended on this lock, except it seems we're not 38098eddac3fSPeter Zijlstra * actually trying to acquire anything much at all.. 38108eddac3fSPeter Zijlstra */ 38118eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!depth)) 38128eddac3fSPeter Zijlstra return; 38138eddac3fSPeter Zijlstra 38148eddac3fSPeter Zijlstra prev_hlock = NULL; 38158eddac3fSPeter Zijlstra for (i = depth-1; i >= 0; i--) { 38168eddac3fSPeter Zijlstra hlock = curr->held_locks + i; 38178eddac3fSPeter Zijlstra /* 38188eddac3fSPeter Zijlstra * We must not cross into another context: 38198eddac3fSPeter Zijlstra */ 38208eddac3fSPeter Zijlstra if (prev_hlock && prev_hlock->irq_context != hlock->irq_context) 38218eddac3fSPeter Zijlstra break; 38228eddac3fSPeter Zijlstra if (match_held_lock(hlock, lock)) 38238eddac3fSPeter Zijlstra goto found_it; 38248eddac3fSPeter Zijlstra prev_hlock = hlock; 38258eddac3fSPeter Zijlstra } 38268eddac3fSPeter Zijlstra print_lock_contention_bug(curr, lock, ip); 38278eddac3fSPeter Zijlstra return; 38288eddac3fSPeter Zijlstra 38298eddac3fSPeter Zijlstra found_it: 38308eddac3fSPeter Zijlstra if (hlock->instance != lock) 38318eddac3fSPeter Zijlstra return; 38328eddac3fSPeter Zijlstra 38338eddac3fSPeter Zijlstra hlock->waittime_stamp = lockstat_clock(); 38348eddac3fSPeter Zijlstra 38358eddac3fSPeter Zijlstra contention_point = lock_point(hlock_class(hlock)->contention_point, ip); 38368eddac3fSPeter Zijlstra contending_point = lock_point(hlock_class(hlock)->contending_point, 38378eddac3fSPeter Zijlstra lock->ip); 38388eddac3fSPeter Zijlstra 38398eddac3fSPeter Zijlstra stats = get_lock_stats(hlock_class(hlock)); 38408eddac3fSPeter Zijlstra if (contention_point < LOCKSTAT_POINTS) 38418eddac3fSPeter Zijlstra stats->contention_point[contention_point]++; 38428eddac3fSPeter Zijlstra if (contending_point < LOCKSTAT_POINTS) 38438eddac3fSPeter Zijlstra stats->contending_point[contending_point]++; 38448eddac3fSPeter Zijlstra if (lock->cpu != smp_processor_id()) 38458eddac3fSPeter Zijlstra stats->bounces[bounce_contended + !!hlock->read]++; 38468eddac3fSPeter Zijlstra put_lock_stats(stats); 38478eddac3fSPeter Zijlstra } 38488eddac3fSPeter Zijlstra 38498eddac3fSPeter Zijlstra static void 38508eddac3fSPeter Zijlstra __lock_acquired(struct lockdep_map *lock, unsigned long ip) 38518eddac3fSPeter Zijlstra { 38528eddac3fSPeter Zijlstra struct task_struct *curr = current; 38538eddac3fSPeter Zijlstra struct held_lock *hlock, *prev_hlock; 38548eddac3fSPeter Zijlstra struct lock_class_stats *stats; 38558eddac3fSPeter Zijlstra unsigned int depth; 38568eddac3fSPeter Zijlstra u64 now, waittime = 0; 38578eddac3fSPeter Zijlstra int i, cpu; 38588eddac3fSPeter Zijlstra 38598eddac3fSPeter Zijlstra depth = curr->lockdep_depth; 38608eddac3fSPeter Zijlstra /* 38618eddac3fSPeter Zijlstra * Yay, we acquired ownership of this lock we didn't try to 38628eddac3fSPeter Zijlstra * acquire, how the heck did that happen? 38638eddac3fSPeter Zijlstra */ 38648eddac3fSPeter Zijlstra if (DEBUG_LOCKS_WARN_ON(!depth)) 38658eddac3fSPeter Zijlstra return; 38668eddac3fSPeter Zijlstra 38678eddac3fSPeter Zijlstra prev_hlock = NULL; 38688eddac3fSPeter Zijlstra for (i = depth-1; i >= 0; i--) { 38698eddac3fSPeter Zijlstra hlock = curr->held_locks + i; 38708eddac3fSPeter Zijlstra /* 38718eddac3fSPeter Zijlstra * We must not cross into another context: 38728eddac3fSPeter Zijlstra */ 38738eddac3fSPeter Zijlstra if (prev_hlock && prev_hlock->irq_context != hlock->irq_context) 38748eddac3fSPeter Zijlstra break; 38758eddac3fSPeter Zijlstra if (match_held_lock(hlock, lock)) 38768eddac3fSPeter Zijlstra goto found_it; 38778eddac3fSPeter Zijlstra prev_hlock = hlock; 38788eddac3fSPeter Zijlstra } 38798eddac3fSPeter Zijlstra print_lock_contention_bug(curr, lock, _RET_IP_); 38808eddac3fSPeter Zijlstra return; 38818eddac3fSPeter Zijlstra 38828eddac3fSPeter Zijlstra found_it: 38838eddac3fSPeter Zijlstra if (hlock->instance != lock) 38848eddac3fSPeter Zijlstra return; 38858eddac3fSPeter Zijlstra 38868eddac3fSPeter Zijlstra cpu = smp_processor_id(); 38878eddac3fSPeter Zijlstra if (hlock->waittime_stamp) { 38888eddac3fSPeter Zijlstra now = lockstat_clock(); 38898eddac3fSPeter Zijlstra waittime = now - hlock->waittime_stamp; 38908eddac3fSPeter Zijlstra hlock->holdtime_stamp = now; 38918eddac3fSPeter Zijlstra } 38928eddac3fSPeter Zijlstra 38938eddac3fSPeter Zijlstra trace_lock_acquired(lock, ip); 38948eddac3fSPeter Zijlstra 38958eddac3fSPeter Zijlstra stats = get_lock_stats(hlock_class(hlock)); 38968eddac3fSPeter Zijlstra if (waittime) { 38978eddac3fSPeter Zijlstra if (hlock->read) 38988eddac3fSPeter Zijlstra lock_time_inc(&stats->read_waittime, waittime); 38998eddac3fSPeter Zijlstra else 39008eddac3fSPeter Zijlstra lock_time_inc(&stats->write_waittime, waittime); 39018eddac3fSPeter Zijlstra } 39028eddac3fSPeter Zijlstra if (lock->cpu != cpu) 39038eddac3fSPeter Zijlstra stats->bounces[bounce_acquired + !!hlock->read]++; 39048eddac3fSPeter Zijlstra put_lock_stats(stats); 39058eddac3fSPeter Zijlstra 39068eddac3fSPeter Zijlstra lock->cpu = cpu; 39078eddac3fSPeter Zijlstra lock->ip = ip; 39088eddac3fSPeter Zijlstra } 39098eddac3fSPeter Zijlstra 39108eddac3fSPeter Zijlstra void lock_contended(struct lockdep_map *lock, unsigned long ip) 39118eddac3fSPeter Zijlstra { 39128eddac3fSPeter Zijlstra unsigned long flags; 39138eddac3fSPeter Zijlstra 39148eddac3fSPeter Zijlstra if (unlikely(!lock_stat)) 39158eddac3fSPeter Zijlstra return; 39168eddac3fSPeter Zijlstra 39178eddac3fSPeter Zijlstra if (unlikely(current->lockdep_recursion)) 39188eddac3fSPeter Zijlstra return; 39198eddac3fSPeter Zijlstra 39208eddac3fSPeter Zijlstra raw_local_irq_save(flags); 39218eddac3fSPeter Zijlstra check_flags(flags); 39228eddac3fSPeter Zijlstra current->lockdep_recursion = 1; 39238eddac3fSPeter Zijlstra trace_lock_contended(lock, ip); 39248eddac3fSPeter Zijlstra __lock_contended(lock, ip); 39258eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 39268eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 39278eddac3fSPeter Zijlstra } 39288eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(lock_contended); 39298eddac3fSPeter Zijlstra 39308eddac3fSPeter Zijlstra void lock_acquired(struct lockdep_map *lock, unsigned long ip) 39318eddac3fSPeter Zijlstra { 39328eddac3fSPeter Zijlstra unsigned long flags; 39338eddac3fSPeter Zijlstra 39348eddac3fSPeter Zijlstra if (unlikely(!lock_stat)) 39358eddac3fSPeter Zijlstra return; 39368eddac3fSPeter Zijlstra 39378eddac3fSPeter Zijlstra if (unlikely(current->lockdep_recursion)) 39388eddac3fSPeter Zijlstra return; 39398eddac3fSPeter Zijlstra 39408eddac3fSPeter Zijlstra raw_local_irq_save(flags); 39418eddac3fSPeter Zijlstra check_flags(flags); 39428eddac3fSPeter Zijlstra current->lockdep_recursion = 1; 39438eddac3fSPeter Zijlstra __lock_acquired(lock, ip); 39448eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 39458eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 39468eddac3fSPeter Zijlstra } 39478eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(lock_acquired); 39488eddac3fSPeter Zijlstra #endif 39498eddac3fSPeter Zijlstra 39508eddac3fSPeter Zijlstra /* 39518eddac3fSPeter Zijlstra * Used by the testsuite, sanitize the validator state 39528eddac3fSPeter Zijlstra * after a simulated failure: 39538eddac3fSPeter Zijlstra */ 39548eddac3fSPeter Zijlstra 39558eddac3fSPeter Zijlstra void lockdep_reset(void) 39568eddac3fSPeter Zijlstra { 39578eddac3fSPeter Zijlstra unsigned long flags; 39588eddac3fSPeter Zijlstra int i; 39598eddac3fSPeter Zijlstra 39608eddac3fSPeter Zijlstra raw_local_irq_save(flags); 39618eddac3fSPeter Zijlstra current->curr_chain_key = 0; 39628eddac3fSPeter Zijlstra current->lockdep_depth = 0; 39638eddac3fSPeter Zijlstra current->lockdep_recursion = 0; 39648eddac3fSPeter Zijlstra memset(current->held_locks, 0, MAX_LOCK_DEPTH*sizeof(struct held_lock)); 39658eddac3fSPeter Zijlstra nr_hardirq_chains = 0; 39668eddac3fSPeter Zijlstra nr_softirq_chains = 0; 39678eddac3fSPeter Zijlstra nr_process_chains = 0; 39688eddac3fSPeter Zijlstra debug_locks = 1; 39698eddac3fSPeter Zijlstra for (i = 0; i < CHAINHASH_SIZE; i++) 3970a63f38ccSAndrew Morton INIT_HLIST_HEAD(chainhash_table + i); 39718eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 39728eddac3fSPeter Zijlstra } 39738eddac3fSPeter Zijlstra 39748eddac3fSPeter Zijlstra static void zap_class(struct lock_class *class) 39758eddac3fSPeter Zijlstra { 39768eddac3fSPeter Zijlstra int i; 39778eddac3fSPeter Zijlstra 39788eddac3fSPeter Zijlstra /* 39798eddac3fSPeter Zijlstra * Remove all dependencies this lock is 39808eddac3fSPeter Zijlstra * involved in: 39818eddac3fSPeter Zijlstra */ 39828eddac3fSPeter Zijlstra for (i = 0; i < nr_list_entries; i++) { 39838eddac3fSPeter Zijlstra if (list_entries[i].class == class) 39848eddac3fSPeter Zijlstra list_del_rcu(&list_entries[i].entry); 39858eddac3fSPeter Zijlstra } 39868eddac3fSPeter Zijlstra /* 39878eddac3fSPeter Zijlstra * Unhash the class and remove it from the all_lock_classes list: 39888eddac3fSPeter Zijlstra */ 3989a63f38ccSAndrew Morton hlist_del_rcu(&class->hash_entry); 39908eddac3fSPeter Zijlstra list_del_rcu(&class->lock_entry); 39918eddac3fSPeter Zijlstra 3992cee34d88SPeter Zijlstra RCU_INIT_POINTER(class->key, NULL); 3993cee34d88SPeter Zijlstra RCU_INIT_POINTER(class->name, NULL); 39948eddac3fSPeter Zijlstra } 39958eddac3fSPeter Zijlstra 39968eddac3fSPeter Zijlstra static inline int within(const void *addr, void *start, unsigned long size) 39978eddac3fSPeter Zijlstra { 39988eddac3fSPeter Zijlstra return addr >= start && addr < start + size; 39998eddac3fSPeter Zijlstra } 40008eddac3fSPeter Zijlstra 400135a9393cSPeter Zijlstra /* 400235a9393cSPeter Zijlstra * Used in module.c to remove lock classes from memory that is going to be 400335a9393cSPeter Zijlstra * freed; and possibly re-used by other modules. 400435a9393cSPeter Zijlstra * 400535a9393cSPeter Zijlstra * We will have had one sync_sched() before getting here, so we're guaranteed 400635a9393cSPeter Zijlstra * nobody will look up these exact classes -- they're properly dead but still 400735a9393cSPeter Zijlstra * allocated. 400835a9393cSPeter Zijlstra */ 40098eddac3fSPeter Zijlstra void lockdep_free_key_range(void *start, unsigned long size) 40108eddac3fSPeter Zijlstra { 401135a9393cSPeter Zijlstra struct lock_class *class; 4012a63f38ccSAndrew Morton struct hlist_head *head; 40138eddac3fSPeter Zijlstra unsigned long flags; 40148eddac3fSPeter Zijlstra int i; 40158eddac3fSPeter Zijlstra int locked; 40168eddac3fSPeter Zijlstra 40178eddac3fSPeter Zijlstra raw_local_irq_save(flags); 40188eddac3fSPeter Zijlstra locked = graph_lock(); 40198eddac3fSPeter Zijlstra 40208eddac3fSPeter Zijlstra /* 40218eddac3fSPeter Zijlstra * Unhash all classes that were created by this module: 40228eddac3fSPeter Zijlstra */ 40238eddac3fSPeter Zijlstra for (i = 0; i < CLASSHASH_SIZE; i++) { 40248eddac3fSPeter Zijlstra head = classhash_table + i; 4025a63f38ccSAndrew Morton hlist_for_each_entry_rcu(class, head, hash_entry) { 40268eddac3fSPeter Zijlstra if (within(class->key, start, size)) 40278eddac3fSPeter Zijlstra zap_class(class); 40288eddac3fSPeter Zijlstra else if (within(class->name, start, size)) 40298eddac3fSPeter Zijlstra zap_class(class); 40308eddac3fSPeter Zijlstra } 40318eddac3fSPeter Zijlstra } 40328eddac3fSPeter Zijlstra 40338eddac3fSPeter Zijlstra if (locked) 40348eddac3fSPeter Zijlstra graph_unlock(); 40358eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 403635a9393cSPeter Zijlstra 403735a9393cSPeter Zijlstra /* 403835a9393cSPeter Zijlstra * Wait for any possible iterators from look_up_lock_class() to pass 403935a9393cSPeter Zijlstra * before continuing to free the memory they refer to. 404035a9393cSPeter Zijlstra * 404135a9393cSPeter Zijlstra * sync_sched() is sufficient because the read-side is IRQ disable. 404235a9393cSPeter Zijlstra */ 404335a9393cSPeter Zijlstra synchronize_sched(); 404435a9393cSPeter Zijlstra 404535a9393cSPeter Zijlstra /* 404635a9393cSPeter Zijlstra * XXX at this point we could return the resources to the pool; 404735a9393cSPeter Zijlstra * instead we leak them. We would need to change to bitmap allocators 404835a9393cSPeter Zijlstra * instead of the linear allocators we have now. 404935a9393cSPeter Zijlstra */ 40508eddac3fSPeter Zijlstra } 40518eddac3fSPeter Zijlstra 40528eddac3fSPeter Zijlstra void lockdep_reset_lock(struct lockdep_map *lock) 40538eddac3fSPeter Zijlstra { 405435a9393cSPeter Zijlstra struct lock_class *class; 4055a63f38ccSAndrew Morton struct hlist_head *head; 40568eddac3fSPeter Zijlstra unsigned long flags; 40578eddac3fSPeter Zijlstra int i, j; 40588eddac3fSPeter Zijlstra int locked; 40598eddac3fSPeter Zijlstra 40608eddac3fSPeter Zijlstra raw_local_irq_save(flags); 40618eddac3fSPeter Zijlstra 40628eddac3fSPeter Zijlstra /* 40638eddac3fSPeter Zijlstra * Remove all classes this lock might have: 40648eddac3fSPeter Zijlstra */ 40658eddac3fSPeter Zijlstra for (j = 0; j < MAX_LOCKDEP_SUBCLASSES; j++) { 40668eddac3fSPeter Zijlstra /* 40678eddac3fSPeter Zijlstra * If the class exists we look it up and zap it: 40688eddac3fSPeter Zijlstra */ 40698eddac3fSPeter Zijlstra class = look_up_lock_class(lock, j); 40708eddac3fSPeter Zijlstra if (class) 40718eddac3fSPeter Zijlstra zap_class(class); 40728eddac3fSPeter Zijlstra } 40738eddac3fSPeter Zijlstra /* 40748eddac3fSPeter Zijlstra * Debug check: in the end all mapped classes should 40758eddac3fSPeter Zijlstra * be gone. 40768eddac3fSPeter Zijlstra */ 40778eddac3fSPeter Zijlstra locked = graph_lock(); 40788eddac3fSPeter Zijlstra for (i = 0; i < CLASSHASH_SIZE; i++) { 40798eddac3fSPeter Zijlstra head = classhash_table + i; 4080a63f38ccSAndrew Morton hlist_for_each_entry_rcu(class, head, hash_entry) { 40818eddac3fSPeter Zijlstra int match = 0; 40828eddac3fSPeter Zijlstra 40838eddac3fSPeter Zijlstra for (j = 0; j < NR_LOCKDEP_CACHING_CLASSES; j++) 40848eddac3fSPeter Zijlstra match |= class == lock->class_cache[j]; 40858eddac3fSPeter Zijlstra 40868eddac3fSPeter Zijlstra if (unlikely(match)) { 40878eddac3fSPeter Zijlstra if (debug_locks_off_graph_unlock()) { 40888eddac3fSPeter Zijlstra /* 40898eddac3fSPeter Zijlstra * We all just reset everything, how did it match? 40908eddac3fSPeter Zijlstra */ 40918eddac3fSPeter Zijlstra WARN_ON(1); 40928eddac3fSPeter Zijlstra } 40938eddac3fSPeter Zijlstra goto out_restore; 40948eddac3fSPeter Zijlstra } 40958eddac3fSPeter Zijlstra } 40968eddac3fSPeter Zijlstra } 40978eddac3fSPeter Zijlstra if (locked) 40988eddac3fSPeter Zijlstra graph_unlock(); 40998eddac3fSPeter Zijlstra 41008eddac3fSPeter Zijlstra out_restore: 41018eddac3fSPeter Zijlstra raw_local_irq_restore(flags); 41028eddac3fSPeter Zijlstra } 41038eddac3fSPeter Zijlstra 41048eddac3fSPeter Zijlstra void __init lockdep_info(void) 41058eddac3fSPeter Zijlstra { 41068eddac3fSPeter Zijlstra printk("Lock dependency validator: Copyright (c) 2006 Red Hat, Inc., Ingo Molnar\n"); 41078eddac3fSPeter Zijlstra 41088eddac3fSPeter Zijlstra printk("... MAX_LOCKDEP_SUBCLASSES: %lu\n", MAX_LOCKDEP_SUBCLASSES); 41098eddac3fSPeter Zijlstra printk("... MAX_LOCK_DEPTH: %lu\n", MAX_LOCK_DEPTH); 41108eddac3fSPeter Zijlstra printk("... MAX_LOCKDEP_KEYS: %lu\n", MAX_LOCKDEP_KEYS); 41118eddac3fSPeter Zijlstra printk("... CLASSHASH_SIZE: %lu\n", CLASSHASH_SIZE); 41128eddac3fSPeter Zijlstra printk("... MAX_LOCKDEP_ENTRIES: %lu\n", MAX_LOCKDEP_ENTRIES); 41138eddac3fSPeter Zijlstra printk("... MAX_LOCKDEP_CHAINS: %lu\n", MAX_LOCKDEP_CHAINS); 41148eddac3fSPeter Zijlstra printk("... CHAINHASH_SIZE: %lu\n", CHAINHASH_SIZE); 41158eddac3fSPeter Zijlstra 41168eddac3fSPeter Zijlstra printk(" memory used by lock dependency info: %lu kB\n", 41178eddac3fSPeter Zijlstra (sizeof(struct lock_class) * MAX_LOCKDEP_KEYS + 41188eddac3fSPeter Zijlstra sizeof(struct list_head) * CLASSHASH_SIZE + 41198eddac3fSPeter Zijlstra sizeof(struct lock_list) * MAX_LOCKDEP_ENTRIES + 41208eddac3fSPeter Zijlstra sizeof(struct lock_chain) * MAX_LOCKDEP_CHAINS + 41218eddac3fSPeter Zijlstra sizeof(struct list_head) * CHAINHASH_SIZE 41228eddac3fSPeter Zijlstra #ifdef CONFIG_PROVE_LOCKING 41238eddac3fSPeter Zijlstra + sizeof(struct circular_queue) 41248eddac3fSPeter Zijlstra #endif 41258eddac3fSPeter Zijlstra ) / 1024 41268eddac3fSPeter Zijlstra ); 41278eddac3fSPeter Zijlstra 41288eddac3fSPeter Zijlstra printk(" per task-struct memory footprint: %lu bytes\n", 41298eddac3fSPeter Zijlstra sizeof(struct held_lock) * MAX_LOCK_DEPTH); 41308eddac3fSPeter Zijlstra } 41318eddac3fSPeter Zijlstra 41328eddac3fSPeter Zijlstra static void 41338eddac3fSPeter Zijlstra print_freed_lock_bug(struct task_struct *curr, const void *mem_from, 41348eddac3fSPeter Zijlstra const void *mem_to, struct held_lock *hlock) 41358eddac3fSPeter Zijlstra { 41368eddac3fSPeter Zijlstra if (!debug_locks_off()) 41378eddac3fSPeter Zijlstra return; 41388eddac3fSPeter Zijlstra if (debug_locks_silent) 41398eddac3fSPeter Zijlstra return; 41408eddac3fSPeter Zijlstra 41418eddac3fSPeter Zijlstra printk("\n"); 41428eddac3fSPeter Zijlstra printk("=========================\n"); 41438eddac3fSPeter Zijlstra printk("[ BUG: held lock freed! ]\n"); 41448eddac3fSPeter Zijlstra print_kernel_ident(); 41458eddac3fSPeter Zijlstra printk("-------------------------\n"); 41468eddac3fSPeter Zijlstra printk("%s/%d is freeing memory %p-%p, with a lock still held there!\n", 41478eddac3fSPeter Zijlstra curr->comm, task_pid_nr(curr), mem_from, mem_to-1); 41488eddac3fSPeter Zijlstra print_lock(hlock); 41498eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 41508eddac3fSPeter Zijlstra 41518eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 41528eddac3fSPeter Zijlstra dump_stack(); 41538eddac3fSPeter Zijlstra } 41548eddac3fSPeter Zijlstra 41558eddac3fSPeter Zijlstra static inline int not_in_range(const void* mem_from, unsigned long mem_len, 41568eddac3fSPeter Zijlstra const void* lock_from, unsigned long lock_len) 41578eddac3fSPeter Zijlstra { 41588eddac3fSPeter Zijlstra return lock_from + lock_len <= mem_from || 41598eddac3fSPeter Zijlstra mem_from + mem_len <= lock_from; 41608eddac3fSPeter Zijlstra } 41618eddac3fSPeter Zijlstra 41628eddac3fSPeter Zijlstra /* 41638eddac3fSPeter Zijlstra * Called when kernel memory is freed (or unmapped), or if a lock 41648eddac3fSPeter Zijlstra * is destroyed or reinitialized - this code checks whether there is 41658eddac3fSPeter Zijlstra * any held lock in the memory range of <from> to <to>: 41668eddac3fSPeter Zijlstra */ 41678eddac3fSPeter Zijlstra void debug_check_no_locks_freed(const void *mem_from, unsigned long mem_len) 41688eddac3fSPeter Zijlstra { 41698eddac3fSPeter Zijlstra struct task_struct *curr = current; 41708eddac3fSPeter Zijlstra struct held_lock *hlock; 41718eddac3fSPeter Zijlstra unsigned long flags; 41728eddac3fSPeter Zijlstra int i; 41738eddac3fSPeter Zijlstra 41748eddac3fSPeter Zijlstra if (unlikely(!debug_locks)) 41758eddac3fSPeter Zijlstra return; 41768eddac3fSPeter Zijlstra 41778eddac3fSPeter Zijlstra local_irq_save(flags); 41788eddac3fSPeter Zijlstra for (i = 0; i < curr->lockdep_depth; i++) { 41798eddac3fSPeter Zijlstra hlock = curr->held_locks + i; 41808eddac3fSPeter Zijlstra 41818eddac3fSPeter Zijlstra if (not_in_range(mem_from, mem_len, hlock->instance, 41828eddac3fSPeter Zijlstra sizeof(*hlock->instance))) 41838eddac3fSPeter Zijlstra continue; 41848eddac3fSPeter Zijlstra 41858eddac3fSPeter Zijlstra print_freed_lock_bug(curr, mem_from, mem_from + mem_len, hlock); 41868eddac3fSPeter Zijlstra break; 41878eddac3fSPeter Zijlstra } 41888eddac3fSPeter Zijlstra local_irq_restore(flags); 41898eddac3fSPeter Zijlstra } 41908eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(debug_check_no_locks_freed); 41918eddac3fSPeter Zijlstra 41928eddac3fSPeter Zijlstra static void print_held_locks_bug(void) 41938eddac3fSPeter Zijlstra { 41948eddac3fSPeter Zijlstra if (!debug_locks_off()) 41958eddac3fSPeter Zijlstra return; 41968eddac3fSPeter Zijlstra if (debug_locks_silent) 41978eddac3fSPeter Zijlstra return; 41988eddac3fSPeter Zijlstra 41998eddac3fSPeter Zijlstra printk("\n"); 42008eddac3fSPeter Zijlstra printk("=====================================\n"); 42018eddac3fSPeter Zijlstra printk("[ BUG: %s/%d still has locks held! ]\n", 42028eddac3fSPeter Zijlstra current->comm, task_pid_nr(current)); 42038eddac3fSPeter Zijlstra print_kernel_ident(); 42048eddac3fSPeter Zijlstra printk("-------------------------------------\n"); 42058eddac3fSPeter Zijlstra lockdep_print_held_locks(current); 42068eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 42078eddac3fSPeter Zijlstra dump_stack(); 42088eddac3fSPeter Zijlstra } 42098eddac3fSPeter Zijlstra 42108eddac3fSPeter Zijlstra void debug_check_no_locks_held(void) 42118eddac3fSPeter Zijlstra { 42128eddac3fSPeter Zijlstra if (unlikely(current->lockdep_depth > 0)) 42138eddac3fSPeter Zijlstra print_held_locks_bug(); 42148eddac3fSPeter Zijlstra } 42158eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(debug_check_no_locks_held); 42168eddac3fSPeter Zijlstra 42178dce7a9aSSasha Levin #ifdef __KERNEL__ 42188eddac3fSPeter Zijlstra void debug_show_all_locks(void) 42198eddac3fSPeter Zijlstra { 42208eddac3fSPeter Zijlstra struct task_struct *g, *p; 42218eddac3fSPeter Zijlstra int count = 10; 42228eddac3fSPeter Zijlstra int unlock = 1; 42238eddac3fSPeter Zijlstra 42248eddac3fSPeter Zijlstra if (unlikely(!debug_locks)) { 42258eddac3fSPeter Zijlstra printk("INFO: lockdep is turned off.\n"); 42268eddac3fSPeter Zijlstra return; 42278eddac3fSPeter Zijlstra } 42288eddac3fSPeter Zijlstra printk("\nShowing all locks held in the system:\n"); 42298eddac3fSPeter Zijlstra 42308eddac3fSPeter Zijlstra /* 42318eddac3fSPeter Zijlstra * Here we try to get the tasklist_lock as hard as possible, 42328eddac3fSPeter Zijlstra * if not successful after 2 seconds we ignore it (but keep 42338eddac3fSPeter Zijlstra * trying). This is to enable a debug printout even if a 42348eddac3fSPeter Zijlstra * tasklist_lock-holding task deadlocks or crashes. 42358eddac3fSPeter Zijlstra */ 42368eddac3fSPeter Zijlstra retry: 42378eddac3fSPeter Zijlstra if (!read_trylock(&tasklist_lock)) { 42388eddac3fSPeter Zijlstra if (count == 10) 42398eddac3fSPeter Zijlstra printk("hm, tasklist_lock locked, retrying... "); 42408eddac3fSPeter Zijlstra if (count) { 42418eddac3fSPeter Zijlstra count--; 42428eddac3fSPeter Zijlstra printk(" #%d", 10-count); 42438eddac3fSPeter Zijlstra mdelay(200); 42448eddac3fSPeter Zijlstra goto retry; 42458eddac3fSPeter Zijlstra } 42468eddac3fSPeter Zijlstra printk(" ignoring it.\n"); 42478eddac3fSPeter Zijlstra unlock = 0; 42488eddac3fSPeter Zijlstra } else { 42498eddac3fSPeter Zijlstra if (count != 10) 42508eddac3fSPeter Zijlstra printk(KERN_CONT " locked it.\n"); 42518eddac3fSPeter Zijlstra } 42528eddac3fSPeter Zijlstra 42538eddac3fSPeter Zijlstra do_each_thread(g, p) { 42548eddac3fSPeter Zijlstra /* 42558eddac3fSPeter Zijlstra * It's not reliable to print a task's held locks 42568eddac3fSPeter Zijlstra * if it's not sleeping (or if it's not the current 42578eddac3fSPeter Zijlstra * task): 42588eddac3fSPeter Zijlstra */ 42598eddac3fSPeter Zijlstra if (p->state == TASK_RUNNING && p != current) 42608eddac3fSPeter Zijlstra continue; 42618eddac3fSPeter Zijlstra if (p->lockdep_depth) 42628eddac3fSPeter Zijlstra lockdep_print_held_locks(p); 42638eddac3fSPeter Zijlstra if (!unlock) 42648eddac3fSPeter Zijlstra if (read_trylock(&tasklist_lock)) 42658eddac3fSPeter Zijlstra unlock = 1; 42668eddac3fSPeter Zijlstra } while_each_thread(g, p); 42678eddac3fSPeter Zijlstra 42688eddac3fSPeter Zijlstra printk("\n"); 42698eddac3fSPeter Zijlstra printk("=============================================\n\n"); 42708eddac3fSPeter Zijlstra 42718eddac3fSPeter Zijlstra if (unlock) 42728eddac3fSPeter Zijlstra read_unlock(&tasklist_lock); 42738eddac3fSPeter Zijlstra } 42748eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(debug_show_all_locks); 42758dce7a9aSSasha Levin #endif 42768eddac3fSPeter Zijlstra 42778eddac3fSPeter Zijlstra /* 42788eddac3fSPeter Zijlstra * Careful: only use this function if you are sure that 42798eddac3fSPeter Zijlstra * the task cannot run in parallel! 42808eddac3fSPeter Zijlstra */ 42818eddac3fSPeter Zijlstra void debug_show_held_locks(struct task_struct *task) 42828eddac3fSPeter Zijlstra { 42838eddac3fSPeter Zijlstra if (unlikely(!debug_locks)) { 42848eddac3fSPeter Zijlstra printk("INFO: lockdep is turned off.\n"); 42858eddac3fSPeter Zijlstra return; 42868eddac3fSPeter Zijlstra } 42878eddac3fSPeter Zijlstra lockdep_print_held_locks(task); 42888eddac3fSPeter Zijlstra } 42898eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(debug_show_held_locks); 42908eddac3fSPeter Zijlstra 4291722a9f92SAndi Kleen asmlinkage __visible void lockdep_sys_exit(void) 42928eddac3fSPeter Zijlstra { 42938eddac3fSPeter Zijlstra struct task_struct *curr = current; 42948eddac3fSPeter Zijlstra 42958eddac3fSPeter Zijlstra if (unlikely(curr->lockdep_depth)) { 42968eddac3fSPeter Zijlstra if (!debug_locks_off()) 42978eddac3fSPeter Zijlstra return; 42988eddac3fSPeter Zijlstra printk("\n"); 42998eddac3fSPeter Zijlstra printk("================================================\n"); 43008eddac3fSPeter Zijlstra printk("[ BUG: lock held when returning to user space! ]\n"); 43018eddac3fSPeter Zijlstra print_kernel_ident(); 43028eddac3fSPeter Zijlstra printk("------------------------------------------------\n"); 43038eddac3fSPeter Zijlstra printk("%s/%d is leaving the kernel with locks still held!\n", 43048eddac3fSPeter Zijlstra curr->comm, curr->pid); 43058eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 43068eddac3fSPeter Zijlstra } 43078eddac3fSPeter Zijlstra } 43088eddac3fSPeter Zijlstra 43098eddac3fSPeter Zijlstra void lockdep_rcu_suspicious(const char *file, const int line, const char *s) 43108eddac3fSPeter Zijlstra { 43118eddac3fSPeter Zijlstra struct task_struct *curr = current; 43128eddac3fSPeter Zijlstra 43138eddac3fSPeter Zijlstra #ifndef CONFIG_PROVE_RCU_REPEATEDLY 43148eddac3fSPeter Zijlstra if (!debug_locks_off()) 43158eddac3fSPeter Zijlstra return; 43168eddac3fSPeter Zijlstra #endif /* #ifdef CONFIG_PROVE_RCU_REPEATEDLY */ 43178eddac3fSPeter Zijlstra /* Note: the following can be executed concurrently, so be careful. */ 43188eddac3fSPeter Zijlstra printk("\n"); 43198eddac3fSPeter Zijlstra printk("===============================\n"); 43208eddac3fSPeter Zijlstra printk("[ INFO: suspicious RCU usage. ]\n"); 43218eddac3fSPeter Zijlstra print_kernel_ident(); 43228eddac3fSPeter Zijlstra printk("-------------------------------\n"); 43238eddac3fSPeter Zijlstra printk("%s:%d %s!\n", file, line, s); 43248eddac3fSPeter Zijlstra printk("\nother info that might help us debug this:\n\n"); 43258eddac3fSPeter Zijlstra printk("\n%srcu_scheduler_active = %d, debug_locks = %d\n", 43268eddac3fSPeter Zijlstra !rcu_lockdep_current_cpu_online() 43278eddac3fSPeter Zijlstra ? "RCU used illegally from offline CPU!\n" 43288eddac3fSPeter Zijlstra : !rcu_is_watching() 43298eddac3fSPeter Zijlstra ? "RCU used illegally from idle CPU!\n" 43308eddac3fSPeter Zijlstra : "", 43318eddac3fSPeter Zijlstra rcu_scheduler_active, debug_locks); 43328eddac3fSPeter Zijlstra 43338eddac3fSPeter Zijlstra /* 43348eddac3fSPeter Zijlstra * If a CPU is in the RCU-free window in idle (ie: in the section 43358eddac3fSPeter Zijlstra * between rcu_idle_enter() and rcu_idle_exit(), then RCU 43368eddac3fSPeter Zijlstra * considers that CPU to be in an "extended quiescent state", 43378eddac3fSPeter Zijlstra * which means that RCU will be completely ignoring that CPU. 43388eddac3fSPeter Zijlstra * Therefore, rcu_read_lock() and friends have absolutely no 43398eddac3fSPeter Zijlstra * effect on a CPU running in that state. In other words, even if 43408eddac3fSPeter Zijlstra * such an RCU-idle CPU has called rcu_read_lock(), RCU might well 43418eddac3fSPeter Zijlstra * delete data structures out from under it. RCU really has no 43428eddac3fSPeter Zijlstra * choice here: we need to keep an RCU-free window in idle where 43438eddac3fSPeter Zijlstra * the CPU may possibly enter into low power mode. This way we can 43448eddac3fSPeter Zijlstra * notice an extended quiescent state to other CPUs that started a grace 43458eddac3fSPeter Zijlstra * period. Otherwise we would delay any grace period as long as we run 43468eddac3fSPeter Zijlstra * in the idle task. 43478eddac3fSPeter Zijlstra * 43488eddac3fSPeter Zijlstra * So complain bitterly if someone does call rcu_read_lock(), 43498eddac3fSPeter Zijlstra * rcu_read_lock_bh() and so on from extended quiescent states. 43508eddac3fSPeter Zijlstra */ 43518eddac3fSPeter Zijlstra if (!rcu_is_watching()) 43528eddac3fSPeter Zijlstra printk("RCU used illegally from extended quiescent state!\n"); 43538eddac3fSPeter Zijlstra 43548eddac3fSPeter Zijlstra lockdep_print_held_locks(curr); 43558eddac3fSPeter Zijlstra printk("\nstack backtrace:\n"); 43568eddac3fSPeter Zijlstra dump_stack(); 43578eddac3fSPeter Zijlstra } 43588eddac3fSPeter Zijlstra EXPORT_SYMBOL_GPL(lockdep_rcu_suspicious); 4359