12bc5f927SAlexander van Heukelum /* 22bc5f927SAlexander van Heukelum * Copyright (C) 1991, 1992 Linus Torvalds 32bc5f927SAlexander van Heukelum * Copyright (C) 2000, 2001, 2002 Andi Kleen, SuSE Labs 42bc5f927SAlexander van Heukelum */ 52bc5f927SAlexander van Heukelum #include <linux/kallsyms.h> 62bc5f927SAlexander van Heukelum #include <linux/kprobes.h> 72bc5f927SAlexander van Heukelum #include <linux/uaccess.h> 82bc5f927SAlexander van Heukelum #include <linux/hardirq.h> 92bc5f927SAlexander van Heukelum #include <linux/kdebug.h> 102bc5f927SAlexander van Heukelum #include <linux/module.h> 112bc5f927SAlexander van Heukelum #include <linux/ptrace.h> 122bc5f927SAlexander van Heukelum #include <linux/kexec.h> 13b8030906SIngo Molnar #include <linux/sysfs.h> 142bc5f927SAlexander van Heukelum #include <linux/bug.h> 152bc5f927SAlexander van Heukelum #include <linux/nmi.h> 162bc5f927SAlexander van Heukelum 172bc5f927SAlexander van Heukelum #include <asm/stacktrace.h> 182bc5f927SAlexander van Heukelum 19*198d208dSSteven Rostedt static void *is_irq_stack(void *p, void *irq) 20*198d208dSSteven Rostedt { 21*198d208dSSteven Rostedt if (p < irq || p >= (irq + THREAD_SIZE)) 22*198d208dSSteven Rostedt return NULL; 23*198d208dSSteven Rostedt return irq + THREAD_SIZE; 24*198d208dSSteven Rostedt } 25*198d208dSSteven Rostedt 26*198d208dSSteven Rostedt 27*198d208dSSteven Rostedt static void *is_hardirq_stack(unsigned long *stack, int cpu) 28*198d208dSSteven Rostedt { 29*198d208dSSteven Rostedt void *irq = per_cpu(hardirq_stack, cpu); 30*198d208dSSteven Rostedt 31*198d208dSSteven Rostedt return is_irq_stack(stack, irq); 32*198d208dSSteven Rostedt } 33*198d208dSSteven Rostedt 34*198d208dSSteven Rostedt static void *is_softirq_stack(unsigned long *stack, int cpu) 35*198d208dSSteven Rostedt { 36*198d208dSSteven Rostedt void *irq = per_cpu(softirq_stack, cpu); 37*198d208dSSteven Rostedt 38*198d208dSSteven Rostedt return is_irq_stack(stack, irq); 39*198d208dSSteven Rostedt } 400406ca6dSFrederic Weisbecker 41e8e999cfSNamhyung Kim void dump_trace(struct task_struct *task, struct pt_regs *regs, 42e8e999cfSNamhyung Kim unsigned long *stack, unsigned long bp, 432bc5f927SAlexander van Heukelum const struct stacktrace_ops *ops, void *data) 442bc5f927SAlexander van Heukelum { 45*198d208dSSteven Rostedt const unsigned cpu = get_cpu(); 467ee991fbSSteven Rostedt int graph = 0; 470788aa6aSSteven Rostedt u32 *prev_esp; 487ee991fbSSteven Rostedt 492bc5f927SAlexander van Heukelum if (!task) 502bc5f927SAlexander van Heukelum task = current; 512bc5f927SAlexander van Heukelum 522bc5f927SAlexander van Heukelum if (!stack) { 532bc5f927SAlexander van Heukelum unsigned long dummy; 54b8030906SIngo Molnar 552bc5f927SAlexander van Heukelum stack = &dummy; 568a541665SAlexander van Heukelum if (task && task != current) 572bc5f927SAlexander van Heukelum stack = (unsigned long *)task->thread.sp; 582bc5f927SAlexander van Heukelum } 592bc5f927SAlexander van Heukelum 60e8e999cfSNamhyung Kim if (!bp) 619c0729dcSSoeren Sandmann Pedersen bp = stack_frame(task, regs); 62e8e999cfSNamhyung Kim 632bc5f927SAlexander van Heukelum for (;;) { 642bc5f927SAlexander van Heukelum struct thread_info *context; 65*198d208dSSteven Rostedt void *end_stack; 662bc5f927SAlexander van Heukelum 67*198d208dSSteven Rostedt end_stack = is_hardirq_stack(stack, cpu); 68*198d208dSSteven Rostedt if (!end_stack) 69*198d208dSSteven Rostedt end_stack = is_softirq_stack(stack, cpu); 70*198d208dSSteven Rostedt 71*198d208dSSteven Rostedt context = task_thread_info(task); 72*198d208dSSteven Rostedt bp = ops->walk_stack(context, stack, bp, ops, data, 73*198d208dSSteven Rostedt end_stack, &graph); 742ac53721SAlexander van Heukelum 750788aa6aSSteven Rostedt /* Stop if not on irq stack */ 76*198d208dSSteven Rostedt if (!end_stack) 770788aa6aSSteven Rostedt break; 780788aa6aSSteven Rostedt 79*198d208dSSteven Rostedt /* The previous esp is saved on the bottom of the stack */ 80*198d208dSSteven Rostedt prev_esp = (u32 *)(end_stack - THREAD_SIZE); 810788aa6aSSteven Rostedt stack = (unsigned long *)*prev_esp; 822bc5f927SAlexander van Heukelum if (!stack) 832bc5f927SAlexander van Heukelum break; 840788aa6aSSteven Rostedt 852ac53721SAlexander van Heukelum if (ops->stack(data, "IRQ") < 0) 862ac53721SAlexander van Heukelum break; 872bc5f927SAlexander van Heukelum touch_nmi_watchdog(); 882bc5f927SAlexander van Heukelum } 89*198d208dSSteven Rostedt put_cpu(); 902bc5f927SAlexander van Heukelum } 912bc5f927SAlexander van Heukelum EXPORT_SYMBOL(dump_trace); 922bc5f927SAlexander van Heukelum 93878719e8SNeil Horman void 942bc5f927SAlexander van Heukelum show_stack_log_lvl(struct task_struct *task, struct pt_regs *regs, 95e8e999cfSNamhyung Kim unsigned long *sp, unsigned long bp, char *log_lvl) 962bc5f927SAlexander van Heukelum { 972bc5f927SAlexander van Heukelum unsigned long *stack; 982bc5f927SAlexander van Heukelum int i; 992bc5f927SAlexander van Heukelum 1002bc5f927SAlexander van Heukelum if (sp == NULL) { 1012bc5f927SAlexander van Heukelum if (task) 1022bc5f927SAlexander van Heukelum sp = (unsigned long *)task->thread.sp; 1032bc5f927SAlexander van Heukelum else 1042bc5f927SAlexander van Heukelum sp = (unsigned long *)&sp; 1052bc5f927SAlexander van Heukelum } 1062bc5f927SAlexander van Heukelum 1072bc5f927SAlexander van Heukelum stack = sp; 1082bc5f927SAlexander van Heukelum for (i = 0; i < kstack_depth_to_print; i++) { 1092bc5f927SAlexander van Heukelum if (kstack_end(stack)) 1102bc5f927SAlexander van Heukelum break; 1118a541665SAlexander van Heukelum if (i && ((i % STACKSLOTS_PER_LINE) == 0)) 112c767a54bSJoe Perches pr_cont("\n"); 113c767a54bSJoe Perches pr_cont(" %08lx", *stack++); 114ca0a8164SAlexander van Heukelum touch_nmi_watchdog(); 1152bc5f927SAlexander van Heukelum } 116c767a54bSJoe Perches pr_cont("\n"); 117e8e999cfSNamhyung Kim show_trace_log_lvl(task, regs, sp, bp, log_lvl); 1182bc5f927SAlexander van Heukelum } 1192bc5f927SAlexander van Heukelum 1202bc5f927SAlexander van Heukelum 12157da8b96SJan Beulich void show_regs(struct pt_regs *regs) 1222bc5f927SAlexander van Heukelum { 1232bc5f927SAlexander van Heukelum int i; 1242bc5f927SAlexander van Heukelum 125a43cb95dSTejun Heo show_regs_print_info(KERN_EMERG); 126c7e23289SJan Beulich __show_regs(regs, !user_mode_vm(regs)); 1272bc5f927SAlexander van Heukelum 1282bc5f927SAlexander van Heukelum /* 1292bc5f927SAlexander van Heukelum * When in-kernel, we also print out the stack and code at the 1302bc5f927SAlexander van Heukelum * time of the fault.. 1312bc5f927SAlexander van Heukelum */ 1322bc5f927SAlexander van Heukelum if (!user_mode_vm(regs)) { 1332bc5f927SAlexander van Heukelum unsigned int code_prologue = code_bytes * 43 / 64; 1342bc5f927SAlexander van Heukelum unsigned int code_len = code_bytes; 1352bc5f927SAlexander van Heukelum unsigned char c; 1362bc5f927SAlexander van Heukelum u8 *ip; 1372bc5f927SAlexander van Heukelum 138c767a54bSJoe Perches pr_emerg("Stack:\n"); 139e8e999cfSNamhyung Kim show_stack_log_lvl(NULL, regs, ®s->sp, 0, KERN_EMERG); 1402bc5f927SAlexander van Heukelum 141c767a54bSJoe Perches pr_emerg("Code:"); 1422bc5f927SAlexander van Heukelum 1432bc5f927SAlexander van Heukelum ip = (u8 *)regs->ip - code_prologue; 1442bc5f927SAlexander van Heukelum if (ip < (u8 *)PAGE_OFFSET || probe_kernel_address(ip, c)) { 1458a541665SAlexander van Heukelum /* try starting at IP */ 1462bc5f927SAlexander van Heukelum ip = (u8 *)regs->ip; 1472bc5f927SAlexander van Heukelum code_len = code_len - code_prologue + 1; 1482bc5f927SAlexander van Heukelum } 1492bc5f927SAlexander van Heukelum for (i = 0; i < code_len; i++, ip++) { 1502bc5f927SAlexander van Heukelum if (ip < (u8 *)PAGE_OFFSET || 1512bc5f927SAlexander van Heukelum probe_kernel_address(ip, c)) { 152c767a54bSJoe Perches pr_cont(" Bad EIP value."); 1532bc5f927SAlexander van Heukelum break; 1542bc5f927SAlexander van Heukelum } 1552bc5f927SAlexander van Heukelum if (ip == (u8 *)regs->ip) 156c767a54bSJoe Perches pr_cont(" <%02x>", c); 1572bc5f927SAlexander van Heukelum else 158c767a54bSJoe Perches pr_cont(" %02x", c); 1592bc5f927SAlexander van Heukelum } 1602bc5f927SAlexander van Heukelum } 161c767a54bSJoe Perches pr_cont("\n"); 1622bc5f927SAlexander van Heukelum } 1632bc5f927SAlexander van Heukelum 1642bc5f927SAlexander van Heukelum int is_valid_bugaddr(unsigned long ip) 1652bc5f927SAlexander van Heukelum { 1662bc5f927SAlexander van Heukelum unsigned short ud2; 1672bc5f927SAlexander van Heukelum 1682bc5f927SAlexander van Heukelum if (ip < PAGE_OFFSET) 1692bc5f927SAlexander van Heukelum return 0; 1702bc5f927SAlexander van Heukelum if (probe_kernel_address((unsigned short *)ip, ud2)) 1712bc5f927SAlexander van Heukelum return 0; 1722bc5f927SAlexander van Heukelum 1732bc5f927SAlexander van Heukelum return ud2 == 0x0b0f; 1742bc5f927SAlexander van Heukelum } 175