12bc5f927SAlexander van Heukelum /* 22bc5f927SAlexander van Heukelum * Copyright (C) 1991, 1992 Linus Torvalds 32bc5f927SAlexander van Heukelum * Copyright (C) 2000, 2001, 2002 Andi Kleen, SuSE Labs 42bc5f927SAlexander van Heukelum */ 52bc5f927SAlexander van Heukelum #include <linux/kallsyms.h> 62bc5f927SAlexander van Heukelum #include <linux/kprobes.h> 72bc5f927SAlexander van Heukelum #include <linux/uaccess.h> 82bc5f927SAlexander van Heukelum #include <linux/hardirq.h> 92bc5f927SAlexander van Heukelum #include <linux/kdebug.h> 10186f4360SPaul Gortmaker #include <linux/export.h> 112bc5f927SAlexander van Heukelum #include <linux/ptrace.h> 122bc5f927SAlexander van Heukelum #include <linux/kexec.h> 13b8030906SIngo Molnar #include <linux/sysfs.h> 142bc5f927SAlexander van Heukelum #include <linux/bug.h> 152bc5f927SAlexander van Heukelum #include <linux/nmi.h> 162bc5f927SAlexander van Heukelum 172bc5f927SAlexander van Heukelum #include <asm/stacktrace.h> 182bc5f927SAlexander van Heukelum 19198d208dSSteven Rostedt static void *is_irq_stack(void *p, void *irq) 20198d208dSSteven Rostedt { 21198d208dSSteven Rostedt if (p < irq || p >= (irq + THREAD_SIZE)) 22198d208dSSteven Rostedt return NULL; 23198d208dSSteven Rostedt return irq + THREAD_SIZE; 24198d208dSSteven Rostedt } 25198d208dSSteven Rostedt 26198d208dSSteven Rostedt 27198d208dSSteven Rostedt static void *is_hardirq_stack(unsigned long *stack, int cpu) 28198d208dSSteven Rostedt { 29198d208dSSteven Rostedt void *irq = per_cpu(hardirq_stack, cpu); 30198d208dSSteven Rostedt 31198d208dSSteven Rostedt return is_irq_stack(stack, irq); 32198d208dSSteven Rostedt } 33198d208dSSteven Rostedt 34198d208dSSteven Rostedt static void *is_softirq_stack(unsigned long *stack, int cpu) 35198d208dSSteven Rostedt { 36198d208dSSteven Rostedt void *irq = per_cpu(softirq_stack, cpu); 37198d208dSSteven Rostedt 38198d208dSSteven Rostedt return is_irq_stack(stack, irq); 39198d208dSSteven Rostedt } 400406ca6dSFrederic Weisbecker 41e8e999cfSNamhyung Kim void dump_trace(struct task_struct *task, struct pt_regs *regs, 42e8e999cfSNamhyung Kim unsigned long *stack, unsigned long bp, 432bc5f927SAlexander van Heukelum const struct stacktrace_ops *ops, void *data) 442bc5f927SAlexander van Heukelum { 45198d208dSSteven Rostedt const unsigned cpu = get_cpu(); 467ee991fbSSteven Rostedt int graph = 0; 470788aa6aSSteven Rostedt u32 *prev_esp; 487ee991fbSSteven Rostedt 494b8afafbSJosh Poimboeuf task = task ? : current; 504b8afafbSJosh Poimboeuf stack = stack ? : get_stack_pointer(task, regs); 514b8afafbSJosh Poimboeuf bp = bp ? : (unsigned long)get_frame_pointer(task, regs); 52e8e999cfSNamhyung Kim 532bc5f927SAlexander van Heukelum for (;;) { 54198d208dSSteven Rostedt void *end_stack; 552bc5f927SAlexander van Heukelum 56198d208dSSteven Rostedt end_stack = is_hardirq_stack(stack, cpu); 57198d208dSSteven Rostedt if (!end_stack) 58198d208dSSteven Rostedt end_stack = is_softirq_stack(stack, cpu); 592ac53721SAlexander van Heukelum 60da01e18aSLinus Torvalds bp = ops->walk_stack(task, stack, bp, ops, data, 61198d208dSSteven Rostedt end_stack, &graph); 622bc5f927SAlexander van Heukelum 630788aa6aSSteven Rostedt /* Stop if not on irq stack */ 64198d208dSSteven Rostedt if (!end_stack) 650788aa6aSSteven Rostedt break; 660788aa6aSSteven Rostedt 67198d208dSSteven Rostedt /* The previous esp is saved on the bottom of the stack */ 68198d208dSSteven Rostedt prev_esp = (u32 *)(end_stack - THREAD_SIZE); 690788aa6aSSteven Rostedt stack = (unsigned long *)*prev_esp; 702bc5f927SAlexander van Heukelum if (!stack) 712bc5f927SAlexander van Heukelum break; 720788aa6aSSteven Rostedt 732ac53721SAlexander van Heukelum if (ops->stack(data, "IRQ") < 0) 742ac53721SAlexander van Heukelum break; 752bc5f927SAlexander van Heukelum touch_nmi_watchdog(); 762bc5f927SAlexander van Heukelum } 77198d208dSSteven Rostedt put_cpu(); 782bc5f927SAlexander van Heukelum } 792bc5f927SAlexander van Heukelum EXPORT_SYMBOL(dump_trace); 802bc5f927SAlexander van Heukelum 81878719e8SNeil Horman void 822bc5f927SAlexander van Heukelum show_stack_log_lvl(struct task_struct *task, struct pt_regs *regs, 83e8e999cfSNamhyung Kim unsigned long *sp, unsigned long bp, char *log_lvl) 842bc5f927SAlexander van Heukelum { 852bc5f927SAlexander van Heukelum unsigned long *stack; 862bc5f927SAlexander van Heukelum int i; 872bc5f927SAlexander van Heukelum 884b8afafbSJosh Poimboeuf sp = sp ? : get_stack_pointer(task, regs); 892bc5f927SAlexander van Heukelum 902bc5f927SAlexander van Heukelum stack = sp; 912bc5f927SAlexander van Heukelum for (i = 0; i < kstack_depth_to_print; i++) { 922bc5f927SAlexander van Heukelum if (kstack_end(stack)) 932bc5f927SAlexander van Heukelum break; 941fc7f61cSAdrien Schildknecht if ((i % STACKSLOTS_PER_LINE) == 0) { 951fc7f61cSAdrien Schildknecht if (i != 0) 96c767a54bSJoe Perches pr_cont("\n"); 971fc7f61cSAdrien Schildknecht printk("%s %08lx", log_lvl, *stack++); 981fc7f61cSAdrien Schildknecht } else 99c767a54bSJoe Perches pr_cont(" %08lx", *stack++); 100ca0a8164SAlexander van Heukelum touch_nmi_watchdog(); 1012bc5f927SAlexander van Heukelum } 102c767a54bSJoe Perches pr_cont("\n"); 103e8e999cfSNamhyung Kim show_trace_log_lvl(task, regs, sp, bp, log_lvl); 1042bc5f927SAlexander van Heukelum } 1052bc5f927SAlexander van Heukelum 1062bc5f927SAlexander van Heukelum 10757da8b96SJan Beulich void show_regs(struct pt_regs *regs) 1082bc5f927SAlexander van Heukelum { 1092bc5f927SAlexander van Heukelum int i; 1102bc5f927SAlexander van Heukelum 111a43cb95dSTejun Heo show_regs_print_info(KERN_EMERG); 112f39b6f0eSAndy Lutomirski __show_regs(regs, !user_mode(regs)); 1132bc5f927SAlexander van Heukelum 1142bc5f927SAlexander van Heukelum /* 1152bc5f927SAlexander van Heukelum * When in-kernel, we also print out the stack and code at the 1162bc5f927SAlexander van Heukelum * time of the fault.. 1172bc5f927SAlexander van Heukelum */ 118f39b6f0eSAndy Lutomirski if (!user_mode(regs)) { 1192bc5f927SAlexander van Heukelum unsigned int code_prologue = code_bytes * 43 / 64; 1202bc5f927SAlexander van Heukelum unsigned int code_len = code_bytes; 1212bc5f927SAlexander van Heukelum unsigned char c; 1222bc5f927SAlexander van Heukelum u8 *ip; 1232bc5f927SAlexander van Heukelum 124c767a54bSJoe Perches pr_emerg("Stack:\n"); 125*5a8ff54cSJosh Poimboeuf show_stack_log_lvl(NULL, regs, NULL, 0, KERN_EMERG); 1262bc5f927SAlexander van Heukelum 127c767a54bSJoe Perches pr_emerg("Code:"); 1282bc5f927SAlexander van Heukelum 1292bc5f927SAlexander van Heukelum ip = (u8 *)regs->ip - code_prologue; 1302bc5f927SAlexander van Heukelum if (ip < (u8 *)PAGE_OFFSET || probe_kernel_address(ip, c)) { 1318a541665SAlexander van Heukelum /* try starting at IP */ 1322bc5f927SAlexander van Heukelum ip = (u8 *)regs->ip; 1332bc5f927SAlexander van Heukelum code_len = code_len - code_prologue + 1; 1342bc5f927SAlexander van Heukelum } 1352bc5f927SAlexander van Heukelum for (i = 0; i < code_len; i++, ip++) { 1362bc5f927SAlexander van Heukelum if (ip < (u8 *)PAGE_OFFSET || 1372bc5f927SAlexander van Heukelum probe_kernel_address(ip, c)) { 138c767a54bSJoe Perches pr_cont(" Bad EIP value."); 1392bc5f927SAlexander van Heukelum break; 1402bc5f927SAlexander van Heukelum } 1412bc5f927SAlexander van Heukelum if (ip == (u8 *)regs->ip) 142c767a54bSJoe Perches pr_cont(" <%02x>", c); 1432bc5f927SAlexander van Heukelum else 144c767a54bSJoe Perches pr_cont(" %02x", c); 1452bc5f927SAlexander van Heukelum } 1462bc5f927SAlexander van Heukelum } 147c767a54bSJoe Perches pr_cont("\n"); 1482bc5f927SAlexander van Heukelum } 1492bc5f927SAlexander van Heukelum 1502bc5f927SAlexander van Heukelum int is_valid_bugaddr(unsigned long ip) 1512bc5f927SAlexander van Heukelum { 1522bc5f927SAlexander van Heukelum unsigned short ud2; 1532bc5f927SAlexander van Heukelum 1542bc5f927SAlexander van Heukelum if (ip < PAGE_OFFSET) 1552bc5f927SAlexander van Heukelum return 0; 1562bc5f927SAlexander van Heukelum if (probe_kernel_address((unsigned short *)ip, ud2)) 1572bc5f927SAlexander van Heukelum return 0; 1582bc5f927SAlexander van Heukelum 1592bc5f927SAlexander van Heukelum return ud2 == 0x0b0f; 1602bc5f927SAlexander van Heukelum } 161